21 research outputs found

    Sequence Searching Allowing for Non-Overlapping Adjacent Unbalanced Translocations

    Get PDF

    3D Curvelet-Based Segmentation and Quantification of Drusen in Optical Coherence Tomography Images

    Get PDF

    A multicriteria lifespan energy efficiency approach to intelligent building assessment

    Get PDF
    This paper presents a multicriteria decision-making model for lifespan energy efficiency assessment of intelligent buildings (IBs). The decision-making model called IBAssessor is developed using an analytic network process (ANP) method and a set of lifespan performance indicators for IBs selected by a new quantitative approach called energy-time consumption index (ETI). In order to improve the quality of decision-making, the authors of this paper make use of previous research achievements including a lifespan sustainable business model, the Asian IB Index, and a number of relevant publications. Practitioners can use the IBAssessor ANP model at different stages of an IB lifespan for either engineering or business oriented assessments. Finally, this paper presents an experimental case study to demonstrate how to use IBAssessor ANP model to solve real-world design tasks

    Caracterización del Edema Macular Diabético mediante análisis automático de Tomografías de Coherencia Óptica

    Get PDF
    Programa Oficial de Doctorado en Computación. 5009V01[Abstract] Diabetic Macular Edema (DME) is one of the most important complications of diabetes and a leading cause of preventable blindness in the developed countries. Among the di erent image modalities, Optical Coherence Tomography (OCT) is a non-invasive, cross-sectional and high-resolution imaging technique that is commonly used for the analysis and interpretation of many retinal structures and ocular disorders. In this way, the development of Computer-Aided Diagnosis (CAD) systems has become relevant over the recent years, facilitating and simplifying the work of the clinical specialists in many relevant diagnostic processes, replacing manual procedures that are tedious and highly time-consuming. This thesis proposes a complete methodology for the identi cation and characterization of DMEs using OCT images. To do so, the system combines and exploits di erent clinical knowledge with image processing and machine learning strategies. This automatic system is able to identify and characterize the main retinal structures and several pathological conditions that are associated with the DME disease, following the clinical classi cation of reference in the ophthalmological eld. Despite the complexity and heterogeneity of this relevant ocular pathology, the proposed system achieved satisfactory results, proving to be robust enough to be used in the daily clinical practice, helping the clinicians to produce a more accurate diagnosis and indicate adequate treatments[Resumen] El Edema Macular Diabético (EMD) es una de las complicaciones más importantes de la diabetes y una de las principales causas de ceguera prevenible en los países desarrollados. Entre las diferentes modalidades de imagen, la Tomografía de Coherencia Óptica (TCO) es una técnica de imagen no invasiva, transversal y de alta resolución que se usa comúnmente para el análisis e interpretación de múltiples estructuras retinianas y trastornos oculares. De esta manera, el desarrollo de los sistemas de Diagnóstico Asistido por Ordenador (DAO) se ha vuelto relevante en los últimos años, facilitando y simplificando el trabajo de los especialistas clínicos en muchos procesos diagnósticos relevantes, reemplazando procedimientos manuales que son tediosos y requieren mucho tiempo. Esta tesis propone una metodología completa para la identificación y caracterización de EMDs utilizando imágenes TCO. Para ello, el sistema desarrollado combina y explota diferentes conocimientos clínicos con estrategias de procesamiento de imágenes y aprendizaje automático. Este sistema automático es capaz de identificar y caracterizar las principales estructuras retinianas y diferentes afecciones patológicas asociadas con el EMD, siguiendo la clasificación clínica de referencia en el campo oftalmológico. A pesar de la complejidad de esta relevante patología ocular, el sistema propuesto logró resultados satisfactorios, demostrando ser lo sufi cientemente robusto como para ser usado en la práctica clínica diaria, ayudando a los médicos a producir diagnósticos más precisos y tratamientos más adecuados.[Resumo] O Edema Macular Diabético ( EMD) é unha das complicacións máis importantes da diabetes e unha das principais causas de cegueira prevenible nos países desenvoltos. Entre as diferentes modalidades de imaxe, a Tomografía de Coherencia Óptica ( TCO) é unha técnica de imaxe non invasiva, transversal e de alta resolución que se usa comunmente para a análise e interpretación de múltiples estruturas retinianas e trastornos oculares. Desta maneira, o desenvolvemento dos sistemas de Diagnóstico Asistido por Computador ( DAO) volveuse relevante nos últimos anos, facilitando e simplificando o traballo dos especialistas clínicos en moitos procesos diagnósticos relevantes, substituíndo procedementos manuais que son tediosos e requiren moito tempo. Esta tese propón unha metodoloxía completa para a identificación e caracterización de EMDs utilizando imaxes TCO. Para iso, o sistema desenvolto combina e explota diferentes coñecementos clínicos con estratexias de procesamento de imaxes e aprendizaxe automático. Este sistema automático é capaz de identificar e caracterizar as principais estruturas retinianas e diferentes afeccións patolóxicas asociadas co EMD, seguindo a clasificación clínica de referencia no campo oftalmolóxico. A pesar da complexidade desta relevante patoloxía ocular, o sistema proposto logrou resultados satisfactorios, demostrando ser o sufi cientemente robusto como para ser usado na práctica clínica diaria, axudando aos médicos para producir diagnósticos máis precisos e tratamentos máis adecuados

    Corpus lingüísticos estruturados de grandes dimensións: metodoloxía e sistemas de recuperación de información

    Get PDF
    Tese defendida o 12 de Febreiro de 2010 na Facultade de Informática da Universidade da Coruña[Resumen] La reciente evolución de Internet ha permitido el acceso a un volumen de información enorme, pero toda esta no resulta útil si no existe una manera precisa de encontrar lo que se necesita en un momento dado, Por eso, casi paralelamente al crecimiento de Internet se han ido desarrollando sistemas de recuperación de información (RI) que permitían localizar la información relevante en cada caso, dando lugar a lo que hoy conocemos como buscadores. Pero uno de los principales problemas que presentan estos sistemas radica en que, en general, la información que utilizan está muy poco estructurada, lo que limita en cierto modo sus posibilidades: no se pueden delimitar secciones en los documentos, ni aplicar filtros de búsqueda, etc., es decir, solo se permite introducir una expresión de búsqueda que se intenta encontrar en toda la base documental. Debido a estas carencias, al mismo tiempo también se han ido desarrollando sistemas de RI que requerían que la información estuviera organizada de algún modo particular. Estos sistemas no están diseñados para hacer búsquedas en Internet en general, sino que actúan sobre un conjunto más grande o más pequeño de información disponible y ofrecen más oportunidades de búsqueda. Estas dos vertientes evolutivas, la de utilizar información desestructurada y la de tenerla organizada, llegaron a la actualidad propiciando la aparición de distintas herramientas de búsqueda. Por un lado, tenemos los buscadores de Internet, que permiten localizar documentos que satisfacen una búsqueda concreta y, por la otra, los sistemas que utilizan información estructurada, que cubren aspectos como la obtención de datos de clientes, facturación, control de stock, etc. Finalmente, incluso hai entornos que pueden combinar en diferente grado estas dos vertientes (herramientas de minería de datos, sistemas de predicción, etc.) En este trabajo tratamos un caso particular de los sistemas de RI que utilizan información estructurada: el de los sistemas lingüísticos que trabajan con grandes colecciones de documentos (corpus), lo que enmarca la presente tesis de doctorado dentro de la lingüística computacional y, más concretamente, en la lingüística de corpus. Aunque en este campo también hai un ámplio espectro de posibilidades, nos centramos en aquellos en los que la información que necesitan los usuarios, normalmente lingüistas, está relacionada con la frecuencia de ocurrencia de palabras o con la visualización de ejemplos en su contexto. La evolución de estos sistemas ha sido practicamente simultánea al desarrollo de la informática. Desde las primeras herramientas de búsqueda monolíticas que utilizaban colecciones textuales, consideradas ahora de reducidas dimensiones, se ha ido evolucionando gracias al incremento de la capacidad de los ordenadores, hasta los actuales sistemas de consulta a través de la red que manejan corpus de gran tamaño. Nos centramos en estos últimos, analizando las diferentes posibilidades y tecnologías disponibles actualmente para desarrollarlos pero, además, tambien hacemos una propuesta metodológica genérica para la creación de corpus, que son el sustento de datos de estos sistemas de RI. Ofrecemos, pues, una visión de conjunto que abarca, tanto la construcción de corpus como su posterior explotación, teniendo siempre en mente la utilización de los estándares más actuales. Además, ilustramos nuestras propuestas genéricas con su aplicación al caso concreto del Corpus de Referencia do Galego Actual (CORGA), desarrollado en el Centro Ramón Piñeiro para a Investigación en Humanidades, lo que permite aclarar cómo se concretan los conceptos abstractos en un caso práctico

    Aplicación de técnicas de pruebas automáticas basadas en propiedades a los diferentes niveles de prueba del software

    Get PDF
    [Resumen]Las pruebas son una de las actividades clave en el desarrollo de software, puesto que ayudan a detectar defectos que, de otro modo, pasarían desapercibidos hasta que el software sea desplegado. Sin embargo, al contrario que en otras etapas del ciclo de vida del software, como son el análisis, el diseño o la implementación, para las que existen metodologías y técnicas bien definidas y ampliamente aceptadas en la comunidad informática, junto con herramientas que permiten llevar a cabo dichas tareas, no hay una uniformidad sobre las metodologías, técnicas o herramientas a utilizar para llevar a cabo las pruebas del software de una manera eficiente y eficaz. Este hecho provoca que, muchas veces, éstas sean omitidas o no realizadas con todo el rigor necesario. Esta tesis presenta una aproximación, basada en propiedades y puramente funcional, para la realización de las pruebas del software, que intenta paliar estos problemas. Para ello, se definen metodologías y técnicas de pruebas, integradas en el proceso de desarrollo de software, que pueden ser aplicadas a los diferentes niveles de pruebas del software. Así, pueden utilizarse para llevar a cabo pruebas unitarias y de componente, en las que se comprueba que cada componente individual se comporta de la manera esperada, pruebas de integración, que comprueban las interacciones de los componentes que forman parte de un sistema, y pruebas de sistema, que se encargan de comprobar diferentes aspectos del sistema como un todo. Además, se utiliza un lenguaje de especificación de pruebas común en todas las aproximaciones desarrolladas, el lenguaje de programación funcional Erlang, y las metodologías se definen de manera independiente a la estructura del software concreto a probar o el lenguaje de programación en el que éste esté implementado. Por último, cabe destacar que el uso de estas metodologías y técnicas de pruebas se ilustra a través de un ejemplo industrial, en concreto, el sistema VoDKATV. Este sistema ofrece acceso a servicios multimedia (canales de televisión, videoclub, aplicaciones, juegos, entre otros) a través de diferentes tipos de dispositivos, como, por ejemplo, televisiones, ordenadores, tabletas o móviles. Con respecto a la arquitectura, el sistema VoDKATV está compuesto por múltiples componentes implementados con diferentes tecnologías (Java, Erlang, C, etc.) que se integran entre sí. La complejidad de este sistema permite ilustrar cada una de las metodologías y técnicas de pruebas desarrolladas con un ejemplo real

    Connected And Autonomous Vehicles: Implications For Policy And Practice In City And Transportation Planning

    Get PDF
    Vehicular transportation is undergoing a technological change. Cars are being automated, which have significant implications for governments. Autonomous Vehicles (AVs) and Connected and Autonomous Vehicles (CAVs) can have significant benefits such as improved overall roadside safety and efficiency however, there may also be negative effects as well such as increased sprawl and social inequity. In Ontario, AV testing on public roads has been conducted under O. Reg. 306/15, which has also helped to establish Ontario as a leader of innovation in Canada. Before CAVs can be mass deployed in Ontario and Canada at large however, a number of barriers will need to be addressed such as legislation, infrastructure and cooperation between municipalities, and between municipalities and the automotive industry. Recommendations for municipal and provincial governments are provided
    corecore