12 research outputs found

    Técnicas de computación social e información contextual para el desarrollo de actividades de aprendizaje colaborativo

    Get PDF
    [EN]Educational innovation is a field in which its processes has been greatly enriched by the use of Information and Communication Technologies (ICT). Thanks to technological advances, the use of learning models where information comes from many different sources is now usual. Likewise, student-student, student-device and device-device collaborations provides added value to the learning processes thanks to the fact that, through it, aspects such as communication, achievement of common goals or sharing resources. Within the educational innovation, we find as a great challenge the development of tools that facilitate the creation of innovative collaborative learning processes that improve the achievement of the objectives sought, with respect to individualized processes, and the fidelity of the students to the process through the use of contextual information. Moreover, the development of these solutions, that facilitate the work of teachers, developers and technicians encouraging the production of educational processes more attractive to students, presents itself as an ambitious challenge in which the perspectives of Ambient Intelligence and Social Computing play a key role. The doctoral dissertation presented here describes and evaluates CAFCLA, a framework specially conceived for the design, development and implementation of collaborative learning activities that make use of contextual information and that is based on the paradigms of Ambient Intelligence and Social Computing. CAFCLA is a flexible framework that covers the entire process of developing collaborative learning activities and hides all the difficulties involved in the use and integration of multiple technologies to its users. In order to evaluate the validity of the proposal, CAFCLA has supported the implementation of three concrete and different use cases. These experimental use cases have shown that, among other benefits, the use of Social Computing customizes the learning process, encourages collaboration, improves relationships, increases commitment, promotes behaviour change in users and enables learning to be maintained over time. In addition, in order to demonstrate the flexibility of the framework, these use cases have been developed in different scenarios (such as a museum, a public building or at home), different types of learning have been proposed (serious games, recommendations system orWebQuest) and different learning objectives have been chosen (academic, social and energy-efficient).[ES]La innovación educativa es un campo que ha sido enormemente enriquecido por el uso de las Tecnologías de la Información y las Comunicaciones (TIC) en sus procesos. Gracias a los avances tecnológicos, actualmente es habitual el uso de modelos de aprendizaje donde la información proviene de numerosas y diferentes fuentes. De igual forma, la colaboración estudiante-estudiante, estudiante-dispositivo y dispositivo-dispositivo, proporciona un valor añadido a los procesos de aprendizaje gracias a que, a través de ella, se fomentan aspectos como la comunicación, la consecución de una meta común, o la compartición de recursos. Dentro de la innovación educativa encontramos como un gran desafío el desarrollo de herramientas que faciliten la creación de procesos de aprendizaje colaborativo innovadores que mejoren los resultados obtenidos, respecto a los procesos individualizados, y la fidelidad de los estudiantes al proceso mediante el uso de información contextual.Más aún, el desarrollo de soluciones que faciliten el trabajo a profesores, desarrolladores y técnicos, fomentando la producción de procesos educativos más atractivos para los estudiantes, se presenta como un ambicioso reto en el que las perspectivas de la Inteligencia Ambiental y la Computación Social juegan un papel fundamental. La tesis doctoral aquí presentada describe y evalúa CAFCLA, un framework especialmente concebido para el diseño, desarrollo e implementación de actividades de aprendizaje colaborativo que hagan uso de información contextual basándose en los paradigmas de la Inteligencia Ambiental y la Computación Social. CAFCLA es un framework flexible que abarca todo el proceso de desarrollo de actividades de aprendizaje colaborativo y oculta todas las dificultades que implican el uso e integración de múltiples tecnologías a sus usuarios. Para evaluar la validez de la propuesta realizada, CAFCLA ha soportado la implementación de tres casos de uso concretos y diferentes entre sí. Estos casos de uso experimentales han demostrado que, entre otros beneficios, el uso de la Computación Social personaliza el proceso de aprendizaje, fomenta la colaboración, mejora las relaciones, aumenta el compromiso, favorecen el cambio de comportamiento en los usuarios y mantiene su implicación en el proceso a lo largo del tiempo. Además, con el objetivo de demostrar la flexibilidad del framework, estos casos de uso se han desarrollado en diferentes escenarios (como un museo, un edificio público o el hogar), se han propuesto diferente tipos de aprendizaje (juegos serios, sistema de recomendaciones o WebQuest) y se han elegido diferentes objetivos de aprendizaje (académicos, sociales y de eficiencia energética)

    A formal methodology to design and deploy dependable wireless sensor networks

    Get PDF
    Wireless Sensor Networks (WSNs) are being increasingly adopted in critical applications, where verifying the correct operation of sensor nodes is a major concern. Undesired events may undermine the mission of the WSNs. Hence their effects need to be properly assessed before deployment to obtain a good level of expected performance and during the operation in order to avoid dangerous unexpected results. In this paper we propose amethodology that aims at assessing and improving the dependability level of WSNs by means of an event-based formal verification technique. The methodology includes a process to guide designers towards the realization of dependable WSN and a tool ("ADVISES") to simplify its adoption. The tool is applicable to homogeneous WSNs with static routing topologies. It allows to generate automatically formal specifications used to check correctness properties and evaluate dependability metrics at design time and at runtime for WSNs where an acceptable percentage of faults can be defined. During the runtime we can check the behavior of the WSN accordingly to the results obtained at design time and we can detect sudden and unexpected failures, in order to trigger recovery procedures. The effectiveness of the methodology is shown in the context of two case studies, as proof-of-concept, aiming to illustrate how the tool is helpful to drive design choices and to check the correctness properties of the WSN at runtime. Although the method scales up to very large WSNs, the applicability of the methodology maybe compromised by the state space explosion of the reasoning model, which must be faced partitioning large topologies into sub-topologies

    A formal methodology to design and deploy dependable wireless sensor networks

    Get PDF
    Wireless Sensor Networks (WSNs) are being increasingly adopted in critical applications, where verifying the correct operation of sensor nodes is a major concern. Undesired events may undermine the mission of the WSNs. Hence their effects need to be properly assessed before deployment to obtain a good level of expected performance and during the operation in order to avoid dangerous unexpected results. In this paper we propose amethodology that aims at assessing and improving the dependability level of WSNs by means of an event-based formal verification technique. The methodology includes a process to guide designers towards the realization of dependable WSN and a tool ("ADVISES") to simplify its adoption. The tool is applicable to homogeneous WSNs with static routing topologies. It allows to generate automatically formal specifications used to check correctness properties and evaluate dependability metrics at design time and at runtime for WSNs where an acceptable percentage of faults can be defined. During the runtime we can check the behavior of the WSN accordingly to the results obtained at design time and we can detect sudden and unexpected failures, in order to trigger recovery procedures. The effectiveness of the methodology is shown in the context of two case studies, as proof-of-concept, aiming to illustrate how the tool is helpful to drive design choices and to check the correctness properties of the WSN at runtime. Although the method scales up to very large WSNs, the applicability of the methodology maybe compromised by the state space explosion of the reasoning model, which must be faced partitioning large topologies into sub-topologies

    Pattern detection platform using disruptive technologies to improve people’s daily tasks

    Get PDF
    Tesis por compendio de publicaciones[ES] En los últimos años la miniaturización de los dispositivos electrónicos y el abaratamiento de los procesos de fabricación de los componentes ha permitido que las redes de sensores inalámbricas sean cada vez mas importantes y se empleen en multitud de casos. Adicionalmente, y debido en parte a la mejora en cuanto a las capacidades de almacenamiento y procesamiento de datos se refiere, ha permitido construir sistemas sensibles al contexto en áreas como la medicina, la monitorización o la robótica que permiten hacer un análisis detallado y adaptable de los procesos y servicios que se pueden proporcionar a los usuarios. Esta tesis doctoral ha sido conformada mediante un “Compendio de Artículos” donde se analiza la aplicación de paradigmas de inteligencia artificial en 3 casos de estudio claramente diferenciados. Se ha planteado un novedoso sistema de localización en interiores que hace uso de técnicas bayesianas y fingerprinting, con objeto de automatizar y facilitar los procesos de adquisición de datos de calibración. A mayores, se presenta un exoesqueleto que es conectado a una arquitectura sensible al contexto con objeto de que los pacientes de rehabilitación hagan ejercicios de forma interactiva y haciendo uso de técnicas de realidad aumentada. En el último artículo, se hace hincapié en el diseño de una plataforma que hace uso de las redes inalámbricas de sensores, con objeto de monitorizar el estado de los aseos mediante la incorporación de agentes embebidos en dispositivos limitados computacionalmente. Esta información descentralizada es analizada con objeto de detectar posibles anomalías y facilitar la toma de decisiones. Uno de los principales hitos que se pretende con el estudio, es mostrar a la comunidad científica los diferentes resultados que se han obtenido en la investigación, solventando problemas cotidianos que han sido resueltos mediante la modelización de los casos de estudio mediante la utilización de arquitecturas multi-agente y sistemas expertos. El filtrado de señales, la utilización de clasificadores, minería de datos y la utilización de otras técnicas de Inteligencia Artificial han sido empleadas para la consecución exitosa de este trabajo

    Políticas de Copyright de Publicações Científicas em Repositórios Institucionais: O Caso do INESC TEC

    Get PDF
    A progressiva transformação das práticas científicas, impulsionada pelo desenvolvimento das novas Tecnologias de Informação e Comunicação (TIC), têm possibilitado aumentar o acesso à informação, caminhando gradualmente para uma abertura do ciclo de pesquisa. Isto permitirá resolver a longo prazo uma adversidade que se tem colocado aos investigadores, que passa pela existência de barreiras que limitam as condições de acesso, sejam estas geográficas ou financeiras. Apesar da produção científica ser dominada, maioritariamente, por grandes editoras comerciais, estando sujeita às regras por estas impostas, o Movimento do Acesso Aberto cuja primeira declaração pública, a Declaração de Budapeste (BOAI), é de 2002, vem propor alterações significativas que beneficiam os autores e os leitores. Este Movimento vem a ganhar importância em Portugal desde 2003, com a constituição do primeiro repositório institucional a nível nacional. Os repositórios institucionais surgiram como uma ferramenta de divulgação da produção científica de uma instituição, com o intuito de permitir abrir aos resultados da investigação, quer antes da publicação e do próprio processo de arbitragem (preprint), quer depois (postprint), e, consequentemente, aumentar a visibilidade do trabalho desenvolvido por um investigador e a respetiva instituição. O estudo apresentado, que passou por uma análise das políticas de copyright das publicações científicas mais relevantes do INESC TEC, permitiu não só perceber que as editoras adotam cada vez mais políticas que possibilitam o auto-arquivo das publicações em repositórios institucionais, como também que existe todo um trabalho de sensibilização a percorrer, não só para os investigadores, como para a instituição e toda a sociedade. A produção de um conjunto de recomendações, que passam pela implementação de uma política institucional que incentive o auto-arquivo das publicações desenvolvidas no âmbito institucional no repositório, serve como mote para uma maior valorização da produção científica do INESC TEC.The progressive transformation of scientific practices, driven by the development of new Information and Communication Technologies (ICT), which made it possible to increase access to information, gradually moving towards an opening of the research cycle. This opening makes it possible to resolve, in the long term, the adversity that has been placed on researchers, which involves the existence of barriers that limit access conditions, whether geographical or financial. Although large commercial publishers predominantly dominate scientific production and subject it to the rules imposed by them, the Open Access movement whose first public declaration, the Budapest Declaration (BOAI), was in 2002, proposes significant changes that benefit the authors and the readers. This Movement has gained importance in Portugal since 2003, with the constitution of the first institutional repository at the national level. Institutional repositories have emerged as a tool for disseminating the scientific production of an institution to open the results of the research, both before publication and the preprint process and postprint, increase the visibility of work done by an investigator and his or her institution. The present study, which underwent an analysis of the copyright policies of INESC TEC most relevant scientific publications, allowed not only to realize that publishers are increasingly adopting policies that make it possible to self-archive publications in institutional repositories, all the work of raising awareness, not only for researchers but also for the institution and the whole society. The production of a set of recommendations, which go through the implementation of an institutional policy that encourages the self-archiving of the publications developed in the institutional scope in the repository, serves as a motto for a greater appreciation of the scientific production of INESC TEC

    Diseño de organizaciones virtuales ubícuas utilizando desarrollo dirigido por modelos

    Full text link
    Hoy en día los avances en la miniaturización de sistemas electrónicos han impulsado el desarrollo de dispositivos o artefactos que incorporan capacidades computacionales y de comunicación. Estos dispositivos pueden proveer de una serie de servicios en diferentes entornos gracias a su tecnología empotrada, como por ejemplo: reconocimiento de personas, localización de usuarios en un entorno, ajuste automático de la temperatura e iluminación de un entorno, etc. Este potencial de procesamiento y comunicación, está permitiendo crear nuevas aplicaciones distribuidas, donde el rol principal no lo tiene el computador personal, sino los diferentes dispositivos empotrados en el entorno: sensores, interfaces, actuadores, teléfonos móviles, etc., Esto ha generado novedosas áreas de aplicación como: Internet de Cosas (Internet of Things), Computación Móvil, Redes de Sensores, Sistemas Ubícuos, Inteligencia Ambiental, etc. Estos avances han conducido al desarrollo de un nuevo paradigma, computación orientada a la interacción, es decir, la computación ocurre a través de los actos de comunicación entre las entidades. Por lo tanto, es lógico pensar que este paradigma requiere, desde un punto de vista de diseño, el desarrollo de aplicaciones en diferentes plataformas de software y de hardware, debido a lo heterogeneo de los sistemas de computación, lenguajes, sistemas operativos, y objetos (dispositivos físicos: sensores, actuadores, interfaces, etc.) dispersos en el entorno. Dicha heterogeneidad presente en los sistemas ubícuos, representa todo un reto a la hora de diseñarlos. La ingeniería de software basada en sistemas multi-agente, en particular, los sistemas multi-agente abiertos (como las Organizaciones Virtuales), tiene la capacidad de abordar los retos al diseñar sistemas ubícuos. A ello hay que unir, que varias metodologías de desarrollo de software han adoptado el enfoque “dirigido por modelos” (model-driven) para realizar el análisis y el diseño del software. Dicho enfoque puede ser adoptado en los sistemas multi-agente, para mejorar el proceso de desarrollo y la calidad del software basado en agentes. Así mismo, el desarrollo dirigido por modelos proporciona un soporte apropiado para abordar este tipo de sistemas, ya que nos permite el uso de modelos como principal elemento abstracto para el diseño del sistema, por medio de la interconexión de un conjunto de componentes visuales. En este trabajo proponemos el desarrollo de sistemas ubícuos utilizando una organización virtual, creando una Organización Virtual Ubícua, la cual es diseñada usando el enfoque de desarrollo dirigido por modelos. De forma más detallada, este trabajo presenta tres propuestas. La primera, presenta un conjunto de meta-modelos para diseñar una Organización Virtual Ubícua, llamado πVOM, que utiliza conceptos generales que se abstraen de las metodologías y de las plataformas de agentes, lo permite diseñar aplicaciones utilizando abstracciones generales de alto nivel, evitando los detalles de implementación de bajo nivel. Así mismo, se presentan dos modelos de transformaciones, que permiten obtener el modelo de implantación de la organización (con los agentes, entidades y dispositivos), por medio de transformaciones semi-automáticas dadas por la metodología model-driven, reduciendo la brecha entre las fases de diseño y de implementación para este tipo de sistema. La segunda propuesta presenta una arquitectura de implantación que define una estructura de capas funcionales basada en servicios, que soporta la interacción de las entidades de la organización virtual. La arquitectura de implantación permite la interoperabilidad de diferentes entidades, plataformas de software y hardware, proporcionando a los miembros de la organización virtual la capacidad de administrar y controlar los dispositivos del entorno (del sistema ubícuo). La tercera propuesta presenta una plataforma de ejecución de agentes empotrados llamada Andromeda, que permite ejecutar agentes empotrados sobre sistema operativo Android que cumplen con el modelo de agente de πVOM. Los agentes en Andromeda pueden acceder a los dispositivos del entorno, tal y como sucede en los sistemas ubícuos. Las propuestas presentadas fueron evaluadas empíricamente con dos ejemplos, que permiten mostrar sus bondades.Aguero Medina, J. (2015). Diseño de organizaciones virtuales ubícuas utilizando desarrollo dirigido por modelos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/52597TESI

    Estimación de la orientación múltiple mediante un banco de filtros y su uso en el desarrollo de aplicaciones de procesado de imagen

    Get PDF
    Mención Europeo / Mención Internacional: Concedido.[SPA] Esta tesis doctoral se presenta bajo la modalidad de compendio de publicaciones. En las últimas décadas, la estimación de orientación se ha convertido en una tarea clave del procesado de imagen, dada su capacidad para extraer características de bajo nivel y su aplicación en el análisis de datos. Existen un gran número de aplicaciones donde la estimación de orientación juega un papel fundamental como son: el análisis de huellas dactilares, extracción de puntos característicos, bifurcaciones, esquinas o intersecciones, filtrado adaptativo o seguimiento de objetos, entre otras. Sin embargo, con el paso del tiempo han aparecido diferentes problemas asociados a la estimación de orientación que pueden complicar este proceso. Los más importantes a destacar son los siguientes: las limitaciones que presentan muchos de los métodos de estimación en estructuras complejas, por ejemplo, estructuras con varias orientaciones asociadas, el incremento de la complejidad computacional de los métodos más modernos o la dependencia de éstos a solo unas determinadas aplicaciones. Resulta en estos momentos, por tanto, una tarea clave conseguir métodos de estimación que sean lo más globales y genéricos posibles, en otras palabras, lo más independientes del tipo de imagen con la que se trabaje y del campo de aplicación. En esta Tesis doctoral, en primer lugar, se aborda una revisión de los conceptos más importantes de la estimación de orientación, como es el concepto de estructura, orientación y sus propiedades principales. También se describen los métodos de estimación de orientaciones más importantes: tensor estructural, bancos de filtros, gradiente al cuadrado promediado, etc. Y las aplicaciones más importantes como la detección de texturas, extracción de características, análisis de huellas dactilares, filtrado variante o seguimiento de objetos, entre otras. Las contribuciones principales a esta Tesis son dos. En primer lugar, la propuesta de un marco de trabajo (de estimación de orientaciones) capaz de sistematizar el proceso de estimación de orientaciones, independientemente del tipo de estructuras o el tipo de aplicación. El marco propuesto está basado en una de las técnicas de estimación de orientación más usadas, los bancos de filtros. Durante este trabajo, éstos han sido probados en multitud de escenarios mientras se consideraban diferentes familias de filtros para su aplicación. En segundo lugar, se abordan casos prácticos de aplicación del marco de trabajo propuesto con el objetivo de mostrar sus excelentes capacidades en aplicaciones muy dispares, mostrando su potencial en multitud de posibilidades. Dado que el método de presentación de la presente Tesis doctoral es mediante un compendio de artículos, la organización de esta memoria constará de un primer capítulo de introducción y estado del arte. Seguidamente se mostrarán, de forma coherente y organizada, los artículos con los resultados obtenidos durante el periodo de investigación de la Tesis, con una introducción para cada uno de los artículos incluidos en este compendio. Finalmente, el capítulo de conclusiones y trabajo futuro cierra la Tesis.[ENG] This doctoral dissertation has been presented in the form of thesis by publication. In the last decades, image orientation estimation has become in a fundamental task of image processing, due to its ability to extract low level features and its application to data analysis. There are a wide number of applications where the image orientation estimation plays and important role, some of these are: fingerprint analysis, feature extractions such as bifurcation, junction and corner, adaptive filtering or tracking applications. However, with the pass of time, different problems related to orientation estimation have appeared and they can complicate this process. The most important problems to highlight are: difficult of a wide number of methods to estimate the orientation of complex object structures, for example, structures with multiple orientations associated, high computational cost of modern methods or dependence on the application framework. Therefore, nowadays, the obtention of global and generics methods, in other words, methods as independent as possible from the image and the application, has become in a important task. In this Thesis, firstly, a review of main concepts of image orientation have been carried out, such as the concept of structure, orientation and their main properties. The most important methods have been described, as e.g., structural tensor, bank of filters, average square gradient, etc. And the most important applications based on image orientation estimation as texture analysis, feature extraction, fingerprint analysis, object tracking and space variant filtering, among others. The main contributions to this Thesis are two. First one is the proposal of a new framework for image orientation estimation, which can systematize this process, making it independent of image type and application. The proposed framework is based on one of the most used estimation orientation techniques, the bank of filters. Throughout this work, it have been tested in a wide variety of scenarios, considering different families of filters for their application. Secondly, the proposed framework has been evaluated in practical applications to show its ability and potential. This Thesis has been carried out by the method of compendium of publications, it has been organized as follows. Chapter one shows an introduction and a review of the state of art. Chapter two shows the journal papers and other contributions done during the research period of this Thesis. Finally, Chapter three shows the conclusion and future work.El trabajo de esta Tesis ha estado financiado parcialmente por el Ministerio de Economía, Industria y Competitividad (Proyecto PI17/00771) y la Universidad Politécnica de Valencia - Instituto Interuniversitario de Investigación en Bioingeniería y Tecnología Orientada al Ser Humano. Labhuman- conjuntamente con la Universidad Politécnica de Cartagena (Proyectos 4106/15TIC y 3626/13TIC).Los artículos y capítulos de libros que forman la tesis son los siguientes: Artículo 1: A.G. Legaz-Aparicio, R. Verdú-Monedero, J. Angulo, “Multiscale Estimation of Multiple Orientations based on Morphological Directional Openings”, Signal, Image and Video Processing, 2018, Accepted, (doi:10.1007/s11760-018-1276-y). ISI-JCR(2017): 1.643, Posición 163 de 260 (T2, Q3), cat ENGINEERING, ELECTRICAL & ELECTRONIC. Artículo 2: Álvar-Ginés Legaz-Aparicio, Rafael Verdú-Monedero, Juan Morales-Sanchez, Jorge Larrey- Ruiz, Jesús Angulo, “Detection of Retinal Vessel Bifurcation by Means of Multiple Orientation Estimation Based on Regularized Morphological Openings”. XIII Medierranean Confe-rence on Medical and Biological Engineering and Computing, Sevilla, 2013. Artículo 3: S. Morales, Á. Legaz-Aparicio, V. Naranjo, R. Verdú-Monedero, “Determination of Bifurcation Angles of the Retinal Vascular Tree through Multiple Orientation Estimation ba-sed on Regularized Morphological Openings”, International Conference on Bio-inspired Systems and Signal Processing (BIOSIGNALS 2015), Lisbon (Portugal), January 2015. Artículo 4: S. Morales, V. Naranjo, J. Angulo, A.G. Legaz-Aparicio, R. Verdú-Monedero, “Retinal network characterization through fundus image processing: signicant point identication on vessel centerline”, Signal Processing: Image Communication, Vol. 59, pp. 50-64, November 2017. ISI-JCR(2017): 2.073, Posición 118 de 260 (T2, Q2), cat ENGINEERING, ELECTRICAL & ELEC-TRONIC. Artículo 5: A.G. Legaz-Aparicio, R. Verdú-Monedero, K. Engan, “Noise Robust and Ro-tation Invariant Framework for Texture Analysis and Classification”, Applied Mathematics and Computation, Volume 335, pp. 124 a 132, October 2018. ISI-JCR(2017): 2.300, Posición 21 de 252 (T1, Q1), cat MATHEMATICS, APPLIED. Artículo 6: Álvar-Ginés Legaz-Aparicio, Rafael Verdú-Monedero, Jesús Angulo, “Adaptive spatially variant morphological filters based on a multiple orientation vector field”, Mathematical modelling in Engineering & Human Behaviour 2016. Artículo 7: A.G. Legaz-Aparicio, R. Verdú-Monedero, J. Angulo, “Adaptive morphological filters based on a multiple orientation vector field dependent on image local features”, Journal of Computational and Applied Mathematics, Vol. 330, pp. 965-981, March 2018. ISI-JCR(2017): 1.632, Posición 49 de 252 (T1, Q1), cat MATHEMATICS, APPLIED.Escuela Internacional de Doctorado de la Universidad Politécnica de CartagenaUniversidad Politécnica de CartagenaPrograma de Doctorado en Tecnologías de la Información y las Comunicaciones por la Universidad Politécnica de Cartagen

    Aprendizaje máquina aplicado a la segmentación de imágenes ecográficas de la arteria carótida para la medida del grosor íntima-media

    Get PDF
    [SPA] Las enfermedades cardiovasculares son la principal causa de mortalidad, morbilidad y discapacidad a nivel mundial. Gran parte de estas patologías derivan de la aterosclerosis, una enfermedad que afecta a las arterias de mediano y gran calibre provocando su endurecimiento y pérdida de elasticidad. La aterosclerosis se caracteriza por el engrosamiento de la capa más interna de las paredes arteriales debido al depósito de materia grasa, colesterol y otras sustancias. Por tanto, produce un estrechamiento del lumen arterial dificultando el flujo sanguíneo normal. A largo plazo, puede llevar a una oclusión total del vaso afectado, impidiendo la llegada de oxígeno a la zona irrigada y provocando accidentes cardiovasculares severos. Así, es crucial el diagnóstico precoz de la aterosclerosis con fines preventivos. En este sentido, el grosor íntima-media o IMT (Intima-Media Thickness) de la arteria carótida común se considera un marcador precoz y fiable de la aterosclerosis y, por tanto, del riesgo cardiovascular. Las paredes de los vasos sanguíneos están formadas por tres capas, de la más interna a la más externa: íntima, media y adventicia. El IMT se define como la distancia entre las interfaces lumen-íntima y media-adventicia y es evaluado mediante imágenes ecográficas que muestran un corte longitudinal de la arteria carótida común. Esta modalidad de imagen es no-invasiva para el paciente y relativamente económica, aunque suele ser bastante ruidosa y muy dependiente del operador. Además, el IMT se suele evaluar de forma manual, marcando pares de puntos sobre la imagen. Estos aspectos dan un carácter subjetivo a la medida del IMT y afectan a su reproducibilidad. La motivación de esta Tesis Doctoral es la mejora del proceso de evaluación del IMT sobre ecografías de la arteria carótida común. El objetivo fundamental consiste en explorar y proponer diferentes soluciones basadas en técnicas de Aprendizaje Máquina adecuadas para la segmentación de estas imágenes. De esta forma, se pretende detectar las interfaces lumen-íntima y media-adventicia a nivel de la pared posterior del vaso para medir el IMT sin necesidad de la interacción con el usuario. Este hecho implica que las estrategias propuestas resulten adecuadas tanto para el diagnóstico en la práctica clínica diaria como para facilitar el desarrollo de estudios sobre un gran número de imágenes. En particular, el proceso de evaluación del IMT se lleva a cabo en tres etapas completamente automáticas. En la primera etapa se realiza un pre-procesado de las ecografías para detectar la región de interés, es decir, la pared posterior de la arteria carótida común. Seguidamente, se procede a la identificación de las interfaces que definen el IMT. Por último, una etapa de post-procesado depura los resultados y define los contornos finales sobre los que realizar la medida del IMT. Para la detección automática de la región de interés (ROI) se han estudiado dos propuestas diferentes: una basada en Morfología Matemática y otra basada en Aprendizaje Máquina. Sobre la ROI detectada, la segmentación de las interfaces lumen-íntima y media-adventicia se plantea como un problema de Reconocimiento de Patrones, a resolver mediante técnicas de Aprendizaje Máquina. Así, se han estudiado cuatro configuraciones diferentes, utilizando distintos algoritmos de entrenamiento, arquitecturas, representaciones de los datos de entrada y definiciones del espacio de salida. Por tanto, la segmentación se reduce a realizar una clasificación de los píxeles de la ecografía. El post-procesado ha sido adaptado a cada una de las estrategias de segmentación propuestas para detectar y eliminar los posibles errores de clasificación de forma automática. Una parte importante del estudio realizado se dedica a la validación de las técnicas de segmentación desarrolladas. Para ello, se ha utilizado un conjunto de 79 ecografías adquiridas con el mismo equipo de ultrasonidos, pero utilizando diferentes sondas y con diferentes resoluciones espaciales. Además, se ha realizado la segmentación manual de todas las imágenes por parte de dos expertos diferentes. Considerando como ground-truth el promedio de cuatro segmentaciones manuales, dos de cada experto, se han evaluado los errores de segmentación de las estrategias automáticas planteadas. El proceso de validación se completa con la comparación de las medidas automáticas y manuales del IMT. Para la evaluación de los resultados, se han empleado diagramas de cajas, análisis de regresión lineal, diagramas de Bland-Altman y diferentes parámetros estadísticos. Los procedimientos desarrollados han demostrado ser robustos frente al ruido y artefactos que puedan presentar las ecografías. También se adaptan a la variabilidad anatómica e instrumental de las imágenes, lográndose una segmentación correcta con independencia de la apariencia que muestre la arteria en la imagen. Los errores medios obtenidos son similares, o incluso inferiores, a los errores propios de otros métodos automáticos y semiautomáticos encontrados en la literatura. Además, como consecuencia de utilizar máquinas de aprendizaje, el proceso de segmentación destaca por su eficiencia computacional. [ENG] Cardiovascular diseases are the leading cause of mortality, morbidity and disability worldwide. Large proportion of these diseases results from atherosclerosis, an illness that affects arterial blood vessels causing the hardening and loss of elasticity of the walls of arteries. Atherosclerosis is characterized by the thickening of the innermost layer of the arterial walls due to the accumulation of fatty material, cholesterol and other substances. Therefore, it produces a narrowing of the arterial lumen which hinders the normal blood flow. In the long term, it can lead to an entire occlusion of the affected vessel, preventing the flow of oxygen to the irrigated area and causing severe cardiovascular accidents. Thus, an early diagnosis of atherosclerosis is crucial for preventive purposes. In this sense, the intima-media thickness (IMT) of the common carotid artery is an early and reliable indicator of atherosclerosis and, therefore, of the cardiovascular risk. The walls of blood vessels consist of three layers, from the innermost to the outermost: intima, media and adventitia. The IMT is defined as the distance between the lumen-intima and media-adventitia interfaces and it is assessed by means of ultrasound images showing longitudinal cuts of the common carotid artery. This imaging modality is noninvasive and relatively low-cost, although it tends to be quite noisy and highly operator dependent. Usually, IMT is manually measured by the specialist, who marks pairs of points on the image. These aspects give a subjective character to the IMT measurement and affect its reproducibility. The motivation of this Ph.D. Thesis is the improvement of the evaluation process of IMT in ultrasound images of the common carotid artery. The main objective is the exploration and the proposition of different solutions based on Machine Learning for segmenting these images. In this way, it is intended to detect the lumen-intima and media-adventitia interfaces in the posterior wall of the vessel to measure the IMT without user interaction. This means that the proposed strategies are suitable both for the diagnosis in daily clinical practice and to facilitate the development of studies with a large number of images. In particular, the evaluation process of IMT is carried out in three fully automatic stages. The first stage is a pre-processing of the ultrasound image in which the region of interest (ROI), i.e. the far-wall of the common carotid artery, is detected. Then, it proceeds to the identification of the interfaces defining the IMT. Finally, a post-processing stage debugs the results and defines the final contours on which IMT is evaluated. Two different proposals have been studied for the ROI detection: one based on Mathematical Morphology and the other based on Machine Learning. Once the ROI is detected, the segmentation of the lumen-intima interface and the media-adventitia interface is posed as a Pattern Recognition problem and it is solved by Machine Learning techniques. Thus, four different configurations have been developed by using distinct architectures, training algorithms, representations of input information and output space definitions. Therefore, segmentation is reduced to perform a classification of the pixels belonging to the ROI. The post-processing stage has been adapted to each one of the proposed segmentation strategies to detect and eliminate possible misclassifications in an automatic way. An important part of the present study is dedicated to the validation of the developed techniques. For this purpose, 79 images acquired with the same ultrasound equipment, but using different probes and different spatial resolutions, have been used. Two experts have performed the manual segmentation of all the images. Considering as ground-truth the average of four manual segmentations, two from each expert, the segmentation errors of the four different strategies have been evaluated. The validation process is completed with the comparison between automatic and manual IMT measurements. For an exhaustive characterization of the results, box plots, linear regression analysis, Bland-Altman plots and different statistical parameters have been used. Developed procedures have proven to be robust against noise and artifacts that may appear in the ultrasounds. They also adapt themselves to the anatomical and instrumental variability of the images, achieving a correct segmentation regardless of the appearance of the artery in the ultrasound. The obtained mean errors are similar, or even lower, than errors in other automatic and semi-automatic methods. Moreover, as a result of using learning machines, the segmentation process stands out for its computational efficiency.[ENG] Cardiovascular diseases are the leading cause of mortality, morbidity and disability worldwide. Large proportion of these diseases results from atherosclerosis, an illness that affects arterial blood vessels causing the hardening and loss of elasticity of the walls of arteries. Atherosclerosis is characterized by the thickening of the innermost layer of the arterial walls due to the accumulation of fatty material, cholesterol and other substances. Therefore, it produces a narrowing of the arterial lumen which hinders the normal blood flow. In the long term, it can lead to an entire occlusion of the affected vessel, preventing the flow of oxygen to the irrigated area and causing severe cardiovascular accidents. Thus, an early diagnosis of atherosclerosis is crucial for preventive purposes. In this sense, the intima-media thickness (IMT) of the common carotid artery is an early and reliable indicator of atherosclerosis and, therefore, of the cardiovascular risk. The walls of blood vessels consist of three layers, from the innermost to the outermost: intima, media and adventitia. The IMT is defined as the distance between the lumen-intima and media-adventitia interfaces and it is assessed by means of ultrasound images showing longitudinal cuts of the common carotid artery. This imaging modality is noninvasive and relatively low-cost, although it tends to be quite noisy and highly operator dependent. Usually, IMT is manually measured by the specialist, who marks pairs of points on the image. These aspects give a subjective character to the IMT measurement and affect its reproducibility. The motivation of this Ph.D. Thesis is the improvement of the evaluation process of IMT in ultrasound images of the common carotid artery. The main objective is the exploration and the proposition of different solutions based on Machine Learning for segmenting these images. In this way, it is intended to detect the lumen-intima and media-adventitia interfaces in the posterior wall of the vessel to measure the IMT without user interaction. This means that the proposed strategies are suitable both for the diagnosis in daily clinical practice and to facilitate the development of studies with a large number of images. In particular, the evaluation process of IMT is carried out in three fully automatic stages. The first stage is a pre-processing of the ultrasound image in which the region of interest (ROI), i.e. the far-wall of the common carotid artery, is detected. Then, it proceeds to the identification of the interfaces defining the IMT. Finally, a post-processing stage debugs the results and defines the final contours on which IMT is evaluated. Two different proposals have been studied for the ROI detection: one based on Mathematical Morphology and the other based on Machine Learning. Once the ROI is detected, the segmentation of the lumen-intima interface and the media-adventitia interface is posed as a Pattern Recognition problem and it is solved by Machine Learning techniques. Thus, four different configurations have been developed by using distinct architectures, training algorithms, representations of input information and output space definitions. Therefore, segmentation is reduced to perform a classification of the pixels belonging to the ROI. The post-processing stage has been adapted to each one of the proposed segmentation strategies to detect and eliminate possible misclassifications in an automatic way. An important part of the present study is dedicated to the validation of the developed techniques. For this purpose, 79 images acquired with the same ultrasound equipment, but using different probes and different spatial resolutions, have been used. Two experts have performed the manual segmentation of all the images. Considering as ground-truth the average of four manual segmentations, two from each expert, the segmentation errors of the four different strategies have been evaluated. The validation process is completed with the comparison between automatic and manual IMT measurements. For an exhaustive characterization of the results, box plots, linear regression analysis, Bland-Altman plots and different statistical parameters have been used. Developed procedures have proven to be robust against noise and artifacts that may appear in the ultrasounds. They also adapt themselves to the anatomical and instrumental variability of the images, achieving a correct segmentation regardless of the appearance of the artery in the ultrasound. The obtained mean errors are similar, or even lower, than errors in other automatic and semi-automatic methods. Moreover, as a result of using learning machines, the segmentation process stands out for its computational efficiency.Programa de doctorado en Tecnologías de la Información y Comunicacione

    XX Workshop de Investigadores en Ciencias de la Computación - WICC 2018 : Libro de actas

    Get PDF
    Actas del XX Workshop de Investigadores en Ciencias de la Computación (WICC 2018), realizado en Facultad de Ciencias Exactas y Naturales y Agrimensura de la Universidad Nacional del Nordeste, los dìas 26 y 27 de abril de 2018.Red de Universidades con Carreras en Informática (RedUNCI
    corecore