15 research outputs found

    Advancing the diagnosis of dry eye syndrome : development of automated assessments of tear film lipid layer patterns

    Get PDF
    [Resumen] El síndrome de ojo seco es una enfermedad sintomática que afecta a un amplio rango de la población, y tiene un impacto negativo en sus actividades diarias. Su diagnóstico es una tarea difícil debido a su etiología multifactorial, y por eso existen varias pruebas clínicas. Una de esas pruebas es la evaluación de los patrones interferenciales de la capa lipídica de la película lagrimal. Guillon dise˜nó un instrumento denominado Tearscope Plus para evaluar el grosor de la película lagrimal de forma rápida, y también definió una escala de clasificación compuesta de cinco categorías. La clasificación en uno de esos cinco patrones es una tarea clínica dificil, especialmente con las capas lipídicas más finas que carecen de características de color y/o morfológicas. Además, la interpretación subjetiva de los expertos mediante una revisión visual puede afectar a la clasificación, pudiendo producirse un alto grado de inter- e intra- variabilidad entre observadores. El desarrollo de un método sistemático y objetivo para análisis y clasificación es altamente deseable, permitiendo un diagnóstico homogéneo y liberando a los expertos de esta tediosa tarea. La propuesta de esta investigación es el diseño de un sistema automático para evaluar los patrones de la capa lipídica de la película lagrimal mediante la interpretación de las imágenes obtenidas con el Tearscope Plus. Por una parte, se presenta una metodología global para evaluar la capa lipídica de la película lagrimal mediante la clasificación automática de estas imágenes en una de las categorías de Guillon. El proceso se lleva a cabo mediante el uso de modelos de textura y color, y algoritmos de aprendizaje máquina. A continuación, esta metodología global se optimiza mediante la reducción de su complejidad computacional. Se utilizan técnicas de reducción de la dimensión para disminuir los requisitos de memoria/tiempo sin una degradación en su rendimiento. Por otra parte, se presenta una metodología local para crear mapas de la película lagrimal, que representan la distribución local de los patrones de la capa lipídica sobre la película lagrimal. Las diferentes evaluaciones automáticas que se proponen ahorran tiempo a los expertos, y proporcionan resultados imparciales que no están afectados por factores subjetivos.[Resumo] O síndrome de ollo seco é unha enfermidade sintomática que afecta a un amplo rango da poboación, e ten un impacto negativo nas súas actividades diarias. O seu diagnóstico é unha tarefa difícil debido á súa etioloxía multifactorial, e por iso existen varias probas clínicas. Unha desas probas é a avaliación dos patróns interferenciais da capa lipídica da película lagrimal. Guillon dese˜nou un instrumento denominado Tearscope Plus para avaliar o grosor da película lagrimal de forma rápida, e tamén definiu unha escala de clasificación composta de cinco categorías. A clasificación nun deses cinco patróns é unha tarefa clínica difícil, especialmente coas capas lipídicas máis finas que carecen de características de cor e/ou morfolóxicas. Ademais, a interpretación subxectiva dos expertos mediante una revisión visual pode afectar á clasificación, podendo producirse un alto grao de inter- e intra- variabilidade entre observadores. O desenvolvemento dun método sistemático e obxectivo para análise e clasificación é altamente desexable, permitindo un diagnóstico homoxéneo e liberando aos expertos desta tediosa tarefa. A proposta desta investigación é o deseño dun sistema automático para avaliar os patróns da capa lipídica da película lagrimal mediante a interpretación das imaxes obtidas co Tearscope Plus. Por unha parte, preséntase unha metodoloxía global para avaliar a capa lipídica da película lagrimal mediante a clasificación automática destas imaxes nunha das categorías de Guillon. O proceso é levado a cabo mediante o uso de modelos de textura e cor, e algoritmos de aprendizaxe máquina. A continuación, esta metodoloxía global é optimizada mediante a redución da súa complexidade computacional. Utilízanse técnicas de redución da dimensión para diminuír os requisitos de memoria/tempo sen unha degradación no seu rendemento. Por outra parte, preséntase unha metodoloxía local para crear mapas da película lagrimal, que representan a distribución local dos patróns da capa lipídica sobre a película lagrimal. As diferentes avaliacións automáticas que se propoñen aforran tempo aos expertos, e proporcionan resultados imparciais que non están afectados por factores subxectivos.[Abstract] Dry eye syndrome is a symptomatic disease which affects a wide range of population, and has a negative impact on their daily activities. Its diagnosis is a difficult task due to its multifactorial etiology, and so there exist several clinical tests. One of these tests is the evaluation of the interference patterns of the tear film lipid layer. Guillon designed an instrument known as Tearscope Plus which allows clinicians to rapidly assess the lipid layer thickness, and also defined a grading scale composed of five categories. The classification into these five patterns is a difficult clinical task, especially with thinner lipid layers which lack color and/or morphological features. Furthermore, the subjective interpretation of the experts via visual inspection may affect the classification, and so a high degree of inter- and also intra- observer variability can be produced. The development of a systematic, objective computerized method for analysis and classification is thus highly desirable, allowing for homogeneous diagnosis and relieving the experts from this tedious task. The proposal of this research is the design of an automatic system to assess the tear film lipid layer patterns through the interpretation of the images acquired with the Tearscope Plus. On the one hand, a global methodology is presented to assess the tear film lipid layer by automatically classifying these images into the Guillon categories. The process is carried out using texture and color models, and machine learning algorithms. Then, this global methodology is optimized through the reduction of its computational complexity. Dimensionality reduction techniques are used in order to diminish the memory/time requirements with no degradation in performance. On the other hand, a local methodology is also presented to create tear film maps, which represent the local distribution of the lipid layer patterns over the tear film. The different automated assessments proposed save time for experts, and provide unbiased results which are not affected by subjective factors

    Novel feature selection methods for high dimensional data

    Get PDF
    [Resumen] La selección de características se define como el proceso de detectar las características relevantes y descartar las irrelevantes, con el objetivo de obtener un subconjunto de características más pequeño que describa adecuadamente el problema dado con una degradación mínima o incluso con una mejora del rendimiento. Con la llegada de los conjuntos de alta dimensión -tanto en muestras como en características-, se ha vuelto indispensable la identifícación adecuada de las características relevantes en escenarios del mundo real. En este contexto, los diferentes métodos disponibles se encuentran con un nuevo reto en cuanto a aplicabilidad y escalabilidad. Además, es necesario desarrollar nuevos métodos que tengan en cuenta estas particularidades de la alta dimensión. Esta tesis está dedicada a la investigación en selección de características y a su aplicación a datos reales de alta dimensión. La primera parte de este trabajo trata del análisis de los métodos de selección de características existentes, para comprobar su idoneidad frente a diferentes retos y para poder proporcionar nuevos resultados a los investigadores de selección de características. Para esto, se han aplicado las técnicas más populares a problemas reales, con el objetivo de obtener no sólo mejoras en rendimiento sino también para permitir su aplicación en tiempo real. Además de la eficiencia, la escalabilidad también es un aspecto crítico en aplicaciones de gran escala. La eficacia de los métodos de selección de características puede verse significativamente degradada, si no totalmente inaplicable, cuando el tamaño de los datos se incrementa continuamente. Por este motivo, la escalabilidad de los métodos de selección de características también debe ser analizada. Tras llevar a cabo un análisis en profundidad de los métodos de selección de características existentes, la segunda parte de esta tesis se centra en el desarrollo de nuevas técnicas. Debido a que la mayoría de métodos de selección existentes necesitan que los datos sean discretos, la primera aproximación propuesta consiste en la combinación de un discretizador, un filtro y un clasificador, obteniendo resultados prometedores en escenarios diferentes. En un intento de introducir diversidad, la segunda propuesta trata de usar un conjunto de filtros en lugar de uno sólo, con el objetivo de liberar al usuario de tener que decidir que técnica es la más adecuada para un problema dado. La tercera técnica propuesta en esta tesis no solo considera la relevancia de las características sino también su coste asociado -económico o en cuanto a tiempo de ejecución-, por lo que se presenta una metodología general para selección de características basada en coste. Por último, se proponen varias estrategias para distribuir y paralelizar la selección de características, ya que transformar un problema de gran escala en varios problemas de pequeña escala puede llevar a mejoras en el tiempo de procesado y, en algunas ocasiones, en precisión de clasificación

    Cellulose-Based Biosensing Platforms

    Get PDF
    Cellulose empowers measurement science and technology with a simple, low-cost, and highly transformative analytical platform. This book helps the reader to understand and build an overview of the state of the art in cellulose-based (bio)sensing, particularly in terms of the design, fabrication, and advantageous analytical performance. In addition, wearable, clinical, and environmental applications of cellulose-based (bio)sensors are reported, where novel (nano)materials, architectures, signal enhancement strategies, as well as real-time connectivity and portability play a critical role

    PLGA Based Drug Carrier and Pharmaceutical Applications

    Get PDF
    Poly(lactic-co-glycolic acid) (PLGA) is one of the most successful polymers used for producing therapeutic devices, such as drug carriers (DC). PLGA is one of the few polymers that the Food and Drug Administration (FDA) has approved for human administration due to its biocompatibility and biodegradability. In recent years, DC produced with PLGA has gained enormous attention for its versatility in transporting different type of drugs, e.g., hydrophilic or hydrophobic small molecules, or macromolecules with a controlled drug release without modifying the physiochemical properties of the drugs. These drug delivery systems have the possibility/potential to modify their surface properties with functional groups, peptides, or other coatings to improve the interactions with biological materials. Furthermore, they present the possibility to be conjugated with specific target molecules to reach specific tissues or cells. They are also used for different therapeutic applications, such as in vaccinations, cancer treatment, neurological disorder treatment, and as anti-inflammatory agents. This book aims to focus on the recent progress of PLGA as a drug carrier and their new pharmaceutical applications

    The characteristics and feasibility of an in-line debris control technique for KrF excimer laser ablative micromachining

    Get PDF
    To observe KrF excimer laser ablation through thin liquid film of de-ionized (DI) water and the effects thereof on debris control, equipment was designed to contain a small control volume that could be supplied with a fixed flow velocity thin film of DI water to immerse a bisphenol A polycarbonate workpiece. Using the same equipment comparison with ablation in ambient air was possible. The positional debris deposition of samples machined in ambient air was found to show modal tendency reliant on the feature shape machined and according to species size. This is proposed to be due to the interaction of multiple shockwaves at the extent of ablation plumes generated at geometry specific locations in the feature. Debris was deposited where the shockwaves collide. Ablating under a flowing thin film of DI water showed potential to modify the end position and typical size of the debris produced, as well as increased homogeneity of deposition density. Compared with a sample machined in ambient air, the use of immersion has reduced the range of debris deposition by 17% and the deposition within the boundary of the ablation plume has a comparatively even population density. Unlike samples machined in ambient air, outside the ablation plume extents positional control of deposited debris by thin film flowing DI water immersion was evidenced by rippled flow line patterns, indicating the action of transport by fluid flow. A typical increase in debris size by an order of magnitude when using DI water as an immersing liquid was measured, a result that is in line with a colloidal interaction response... cont'd

    Proceedings of ICMMB2014

    Get PDF

    On-line measurement of broken rice percentage from image analysis of length and shape

    Get PDF
    This thesis investigates the design of an on-line signal processing system to measure the percentage of a batch of rice grains that are broken. The objectives of the investigation were: to provide information contributing to the hardware design; to devise one or more approaches for each processing stage; to evaluate and validate these approaches, where necessary recommending the most suitable; and to verify the overall accuracy and robustness of the proposed system. The fundamental processing stages were proposed and, for each stage, the possible approaches were investigated. A configurable experimental apparatus was assembled to enable an iterative development of algorithm and hardware design: an important aspect of the methodology was to locate an acceptable operating point in the space of possible configurations. The processing stages comprised geometric camera calibration; segmentation of the grains from the background; detection of single grains; measurement of grain length and characterisation of shape; classification; and finally corrections for bias and conversion to the required unit of measurement, percentage by mass. For each stage, an analysis of error and uncertainty was undertaken. This provides an indication of the expected accuracy and bias of the proposed system. There were several elements of novel work completed in the course of this investigation. Some novel components were introduced into the calibration procedure; a tiled approach was used in the segmentation stage, to accommodate diverse illumination across the field of view. For the shape analysis, an innovative method is employed to estimate the posterior class density, and the analysis of expected bias includes a treatment of finite aperture but also how the probability of observing a single grain is conditional upon its length. The results obtained from the experimental apparatus and prototype device indicate that it is feasible to obtain on-line measurements that are well within the required tolerance. This would enable such a device to be deployed in a number of important industrial applications

    Liver Biopsy

    Get PDF
    Liver biopsy is recommended as the gold standard method to determine diagnosis, fibrosis staging, prognosis and therapeutic indications in patients with chronic liver disease. However, liver biopsy is an invasive procedure with a risk of complications which can be serious. This book provides the management of the complications in liver biopsy. Additionally, this book provides also the references for the new technology of liver biopsy including the non-invasive elastography, imaging methods and blood panels which could be the alternatives to liver biopsy. The non-invasive methods, especially the elastography, which is the new procedure in hot topics, which were frequently reported in these years. In this book, the professionals of elastography show the mechanism, availability and how to use this technology in a clinical field of elastography. The comprehension of elastography could be a great help for better dealing and for understanding of liver biopsy
    corecore