100 research outputs found

    Large-scale Geometric Data Decomposition, Processing and Structured Mesh Generation

    Get PDF
    Mesh generation is a fundamental and critical problem in geometric data modeling and processing. In most scientific and engineering tasks that involve numerical computations and simulations on 2D/3D regions or on curved geometric objects, discretizing or approximating the geometric data using a polygonal or polyhedral meshes is always the first step of the procedure. The quality of this tessellation often dictates the subsequent computation accuracy, efficiency, and numerical stability. When compared with unstructured meshes, the structured meshes are favored in many scientific/engineering tasks due to their good properties. However, generating high-quality structured mesh remains challenging, especially for complex or large-scale geometric data. In industrial Computer-aided Design/Engineering (CAD/CAE) pipelines, the geometry processing to create a desirable structural mesh of the complex model is the most costly step. This step is semi-manual, and often takes up to several weeks to finish. Several technical challenges remains unsolved in existing structured mesh generation techniques. This dissertation studies the effective generation of structural mesh on large and complex geometric data. We study a general geometric computation paradigm to solve this problem via model partitioning and divide-and-conquer. To apply effective divide-and-conquer, we study two key technical components: the shape decomposition in the divide stage, and the structured meshing in the conquer stage. We test our algorithm on vairous data set, the results demonstrate the efficiency and effectiveness of our framework. The comparisons also show our algorithm outperforms existing partitioning methods in final meshing quality. We also show our pipeline scales up efficiently on HPC environment

    Use Case Oriented Medical Visual Information Retrieval & System Evaluation

    Get PDF
    Large amounts of medical visual data are produced daily in hospitals, while new imaging techniques continue to emerge. In addition, many images are made available continuously via publications in the scientific literature and can also be valuable for clinical routine, research and education. Information retrieval systems are useful tools to provide access to the biomedical literature and fulfil the information needs of medical professionals. The tools developed in this thesis can potentially help clinicians make decisions about difficult diagnoses via a case-based retrieval system based on a use case associated with a specific evaluation task. This system retrieves articles from the biomedical literature when querying with a case description and attached images. This thesis proposes a multimodal approach for medical case-based retrieval with focus on the integration of visual information connected to text. Furthermore, the ImageCLEFmed evaluation campaign was organised during this thesis promoting medical retrieval system evaluation

    Management of Scientific Images: An approach to the extraction, annotation and retrieval of figures in the field of High Energy Physics

    Get PDF
    El entorno de la información en la primera década del siglo XXI no tiene precedentes. Las barreras físicas que han limitado el acceso al conocimiento están desapareciendo a medida que los métodos tradicionales de acceso a información se reemplazan o se mejoran gracias al uso de sistemas basados en computador. Los sistemas digitales son capaces de gestionar colecciones mucho más grandes de documentos, confrontando a los usuarios de información con la avalancha de documentos asociados a su tópico de interés. Esta nueva situación ha creado un incentivo para el desarrollo de técnicas de minería de datos y la creación de motores de búsqueda más eficientes y capaces de limitar los resultados de búsqueda a un subconjunto reducido de los más relevantes. Sin embargo, la mayoría de los motores de búsqueda en la actualidad trabajan con descripciones textuales. Estas descripciones se pueden extraer o bien del contenido o a través de fuentes externas. La recuperación basada en el contenido no textual de documentos es un tema de investigación continua. En particular, la recuperación de imágenes y el desentrañar la información contenida en ellas están suscitando un gran interés en la comunidad científica. Las bibliotecas digitales se sitúan en una posición especial dentro de los sistemas que facilitan el acceso al conocimiento. Actúan como repositorios de documentos que comparten algunas características comunes (por ejemplo, pertenecer a la misma área de conocimiento o ser publicados por la misma institución) y como tales contienen documentos considerados de interés para un grupo particular de usuarios. Además, facilitan funcionalidades de recuperación sobre las colecciones gestionadas. Normalmente, las publicaciones científicas son las unidades más pequeñas gestionadas por las bibliotecas digitales científicas. Sin embargo, en el proceso de creación científica hay diferentes tipos de artefactos, entre otros: figuras y conjuntos de datos. Las figuras juegan un papel particularmente importante en el proceso de publicación científica. Representan los datos en una forma gráfica que nos permite mostrar patrones sobre grandes conjuntos de datos y transmitir ideas complejas de un modo fácilmente entendible. Los sistemas existentes para bibliotecas digitales facilitan el acceso a figuras, pero solo como parte de los ficheros sobre los que se serializa la publicación entera. El objetivo de esta tesis es proponer un conjunto de métodos ytécnicas que permitan transformar las figuras en productos de primera clase dentro del proceso de publicación científica, permitiendo que los investigadores puedan obtener el máximo beneficio a la hora de realizar búsquedas y revisiones de bibliografía existente. Los métodos y técnicas propuestos están orientados a facilitar la adquisición, anotación semántica y búsqueda de figuras contenidas en publicaciones científicas. Para demostrar la completitud de la investigación se han ilustrado las teorías propuestas mediante ejemplos en el campo de la Física de Partículas (también conocido como Física de Altas Energías). Para aquellos casos en los que se han necesitadoo en las figuras que aparecen con más frecuencia en las publicaciones de Física de Partículas: los gráficos científicos denominados en inglés con el término plots. Los prototipos que propuestas más detalladas han desarrollado para esta tesis se han integrado parcialmente dentro del software Invenio (1) para bibliotecas digitales, así como dentro de INSPIRE, una de las mayores bibliotecas digitales en Física de Partículas mantenida gracias a la colaboración de grandes laboratorios y centros de investigación como son el CERN, SLAC, DESY y Fermilab. 1). http://invenio-software.org

    Geometric modeling and optimization over regular domains for graphics and visual computing

    Get PDF
    The effective construction of parametric representation of complicated geometric objects can facilitate many design, analysis, and simulation tasks in Computer-Aided Design (CAD), Computer-Aided Manufacturing (CAM), and Computer-Aided Engineering (CAE). Given a 3D shape, the procedure of finding such a parametric representation upon a canonical domain is called geometric parameterization. Regular geometric regions, such as polycubes and spheres, are desirable domains for parameterization. Parametric representations defined upon regular geometric domains have many desirable mathematical properties and can facilitate or simplify various surface/solid modeling and processing computation. This dissertation studies the construction of parameterization on regular geometric domains and explores their applications in shape modeling and computer-aided design. Specifically, we studies (1) the surface parameterization on the spherical domain for closed genus-zero surfaces; (2) the surface parameterization on the polycube domain for general closed surfaces; and (3) the volumetric parameterization for 3D-manifolds embedded in 3D Euclidean space. We propose novel computational models to solve these geometric problems. Our computational models reduce to nonlinear optimizations with various geometric constraints. Hence, we also need to explore effective optimization algorithms. The main contributions of this dissertation are three-folded. (1) We developed an effective progressive spherical parameterization algorithm, with an efficient nonlinear optimization scheme subject to the spherical constraint. Compared with the state-of-the-art spherical mapping algorithms, our algorithm demonstrates the advantages of great efficiency, lower distortion, and guaranteed bijectiveness, and we show its applications in spherical harmonic decomposition and shape analysis. (2) We propose a first topology-preserving polycube domain optimization algorithm that simultaneously optimizes polycube domain together with the parameterization to balance the mapping distortion and domain simplicity. We develop effective nonlinear geometric optimization algorithms dealing with variables with and without derivatives. This polycube parameterization algorithm can benefit the regular quadrilateral mesh generation and cross-surface parameterization. (3) We develop a novel quaternion-based optimization framework for 3D frame field construction and volumetric parameterization computation. We demonstrate our constructed 3D frame field has better smoothness, compared with state-of-the-art algorithms, and is effective in guiding low-distortion volumetric parameterization and high-quality hexahedral mesh generation

    The Brain Atlas Concordance Problem: Quantitative Comparison of Anatomical Parcellations

    Get PDF
    Many neuroscientific reports reference discrete macro-anatomical regions of the brain which were delineated according to a brain atlas or parcellation protocol. Currently, however, no widely accepted standards exist for partitioning the cortex and subcortical structures, or for assigning labels to the resulting regions, and many procedures are being actively used. Previous attempts to reconcile neuroanatomical nomenclatures have been largely qualitative, focusing on the development of thesauri or simple semantic mappings between terms. Here we take a fundamentally different approach, discounting the names of regions and instead comparing their definitions as spatial entities in an effort to provide more precise quantitative mappings between anatomical entities as defined by different atlases. We develop an analytical framework for studying this brain atlas concordance problem, and apply these methods in a comparison of eight diverse labeling methods used by the neuroimaging community. These analyses result in conditional probabilities that enable mapping between regions across atlases, which also form the input to graph-based methods for extracting higher-order relationships between sets of regions and to procedures for assessing the global similarity between different parcellations of the same brain. At a global scale, the overall results demonstrate a considerable lack of concordance between available parcellation schemes, falling within chance levels for some atlas pairs. At a finer level, this study reveals spatial relationships between sets of defined regions that are not obviously apparent; these are of high potential interest to researchers faced with the challenge of comparing results that were based on these different anatomical models, particularly when coordinate-based data are not available. The complexity of the spatial overlap patterns revealed points to problems for attempts to reconcile anatomical parcellations and nomenclatures using strictly qualitative and/or categorical methods. Detailed results from this study are made available via an interactive web site at http://obart.info

    Metodologias para projeto mecânico ótimo de estruturas espaciais obtidas por fabrico aditivo

    Get PDF
    Additive Layer Manufacturing (ALM) is growing rapidly due to the unprecedented design freedom. Thus, the structures' complexity can be drastically increased without significant raises in costs. However, the economic viability of ALM is strongly dependent on the full exploration of the referred design freedom. In fact, the ALM is only cost-effective in highly customized parts. Moreover, the mechanical behavior of materials processed via ALM is an ongoing challenge due to defects, uncertainties in material characterization, and verification methods. Thus, the goal of the present work is the development of a robust methodology for the mechanical optimum design of metallic space structures obtained from additive manufacturing. Thus, two main tasks were established. The first task is related to the mechanical characterization of a Ti6Al4V alloy, processed via Selective Laser Melting (SLM). Therefore, an experimental testing campaign of Ti6Al4V samples is presented using homogeneous macroscopic testing (tensile, compression, density, hardness, and fatigue) and microscopic testing (defects detection via microcomputed tomography). These samples show better static properties than the other counterparts, obtained by traditional manufacturing processes. However, the repeatability of the SLM samples is still a challenge (particularly in its fatigue behavior) and more testing is needed. Furthermore, these campaigns are expensive and, consequently, more information per test is required. With the development of full-field measurement methods, material model calibration strategies call upon the use of heterogeneous testing specimens. In the scope of this work, an indirect TO methodology is presented, being capable of designing a wide range of different heterogeneous specimens. Then, a stress states performance indicator is also presented to help the selection of the most promising geometry. The second task is related to the definition of the engineering cycle for ALM structures in its mains phases: (i) design for ALM, (ii) bridging between Topology Optimization (TO) and ALM, (iii) process simulation and structural verification, and (iv) manufacturing. Concerning the first phase, ALM provides great geometric freedom however, there are some design limitations. Therefore, a systematic design methodology is presented, being based on a topology optimization algorithm capable of incorporating the main ALM design limitations (minimum member size and overhang angle). Furthermore, the non-trivial task of bridging between TO and the final smooth geometry is also studied (second phase). The referred task uses a Laplacian smoothing algorithm, which is based on the new concept of mutable diffusion. This new concept shows better properties than the classic algorithms, giving promising results. Furthermore, a new volume constraint is presented, which exhibits a less detrimental impact on the chosen structural indicators. Regarding the remaining phases, these were analyzed via industrial case studies. For instance, process simulation can provide crucial insight into the optimum manufacturing direction and might dictate the difference between success and failure upon manufacturing. The impact of this Ph.D. is related with some improvements in (i) the characterization of ALM-produced materials as well as the geometry of the specimens used for their characterization; and in (ii) the engineering cycle of ALM structures, allowing higher efficiency in the structural solutions for the space industry with lower costs.O uso do fabrico aditivo por camadas está a crescer a um elevado ritmo devido À elevada liberdade de projeto de estruturas. Assim, a complexidade das estruturas pode ser aumentada significativamente sem incrementos significativos nos custos. Todavia, a viabilidade económica do fabrico aditivo por camadas é fortemente dependente de uma exploração inteligente da liberdade de projeto estrutural. Na verdade, o fabrico aditivo por camadas só é rentável em peças de elevada complexidade e valor acrescentado. Adicionalmente, o comportamento mecânico de materiais processados através do fabrico aditivo por camadas é ainda um desafio por resolver devido à existência de defeitos, incertezas na caracterização de materiais e nos seus métodos de velicação. Deste modo, o objetivo deste trabalho é o desenvolvimento de uma metodologia robusta que permita o projeto mecânico ótimo de estruturas obtidas por fabrico aditivo para a indústria espacial. Para isso, foram estabelecidas duas tarefas principais. A primeira tarefa está relacionada com a caracterização mecânica da liga Ti6Al4V, processada através da fusão seletiva a laser. Portanto, foi realizado uma campanha de testes experimentais com provetes da liga Ti6Al4V composta por testes macroscópicos homogéneos (tração, compressão, densidade, dureza e fadiga) e testes microscópicos (deteção de defeitos usando uma análise com recurso à tomografia microcomputorizada). Foi verificado que estas amostras exibem melhor propriedades estáticas que amostras idênticas produzidas através de processos tradicionais. Contudo, a sua repetibilidade ainda é um desafio (particularmente o comportamento à fadiga), sendo necessário mais testes. Adicionalmente, estas campanhas experimentais são onerosas e, consequentemente, é crítico obter mais informação por cada teste realizado. Dado o desenvolvimento dos métodos de medição full-field, as estratégias de calibração de modelos de material propiciam o uso de provetes heterogéneos em testes mecânicos. No ^âmbito deste trabalho apresenta-se uma metodologia de otimização topológica indireta capaz de projetar uma grande variedade de provetes heterógenos. Posteriormente apresenta-se um indicador de desempenho baseado na quantidade de estados de tensão para selecionar o provete mais promissor. A segunda tarefa está relacionada com a definição do ciclo de engenharia para o fabrico aditivo por camadas de estruturas metálicas nas suas fases principais: (i) projeto para fabrico aditivo por camadas, (ii) transição entre a otimização topológica e o fabrico aditivo por camadas, (iii) simulação do seu processo de fabrico e sua verificação estrutural e (iv) fabrico. Relativamente à primeira fase, o fabrico aditivo por camadas proporciona uma grande liberdade geométrica, contudo existe limitações ao design. Portanto é apresentada uma metodologia de projeto sistemática, baseada num algoritmo de otimização topológica capaz de incorporar as principais limitações de projeto do fabrico aditivo por camadas tais como a espessura mínima e ângulo do material sem suporte. Adicionalmente, a tarefa complexa de efetuar a transição entre os resultados da otimização topológica e uma geometria final suave também é objeto de estudo. A tarefa anteriormente referida baseia-se na suavização Laplaciana que por sua vez se baseia no novo conceito de difusão mutável. Este novo conceito apresenta melhores e mais promissores resultados que os algoritmos clássicos. Adicionalmente, é apresentado uma nova restrição de volume que proporciona um menor impacto nos indicadores estruturais escolhidos. Relativamente às restantes fases, estas são analisadas através de casos de estudo industriais. A título exemplar, a simulação do processo de fabrico pode fornecer informações crucias para a escolha da direção de fabrico que, por sua vez, pode ditar a diferença entre o sucesso ou o insucesso durante o fabrico. O impacto deste trabalho está relacionado com melhorias na (i) caracterização de materiais produzidos através de fabrico aditivo por camadas assim como nas geometrias de provetes usados durante a sua caracterização e no (ii) ciclo de projeto em engenharia de estruturas obtidas através do fabrico aditivo por camadas, permitindo soluções estruturais com maior eficiência e menor custo para indústria espacial.Programa Doutoral em Engenharia Mecânic

    Deep integrative information extraction from scientific literature

    Get PDF
    Doctor of PhilosophyDepartment of Computer ScienceWilliam H HsuThis dissertation presents deep integrative methods from both visual and textual perspectives to address the challenges of extracting information from documents, particularly scientific literature. The number of publications in the academic literature has soared. Published literature includes large amounts of valuable information that can help scientists and researchers develop new directions in their fields of interest. Moreover, this information can be used in many applications, among them scholar search engines, relevant paper recommendations, and citation analysis. However, the increased production of scientific literature makes the process of literature review laborious and time-consuming, especially when large amounts of data are stored in heterogeneous unstructured formats, both numerical and image-based text, both of which are challenging to read and analyze. Thus, the ability to automatically extract information from the scientific literature is necessary. In this dissertation, we present integrative information extraction from scientific literature using deep learning approaches. We first investigated a vision-based approach for understanding layout and extracting metadata from scanned scientific literature images. We tried convolutional neural network and transformer-based approaches to document layout. Furthermore, for vision-based metadata information extraction, we proposed a trainable recurrent convolutional neural network that integrated scientific document layout detection and character recognition to extract metadata information from the scientific literature. In doing so, we addressed the problem of existing methods that cannot combine the techniques of layout extraction and text recognition efficiently because different publishers use different formats to present information. This framework requires no additional text features added into the network during the training process and will generate text content and appropriate labels of major sections of scientific documents. We then extracted key-information from unstructured texts in the scientific literature using technologies based on Natural Language Processing (NLP). Key-information could include the named entity and the relationship between pairs of entities in the scientific literature. This information can help provide researchers with key insights into the scientific literature. We proposed the attention-based deep learning method to extract key-information with limited annotated data sets. This method enhances contextualized word representations using pre-trained language models like a Bidirectional Encoder Representations from Transformers (BERT) that, unlike conventional machine learning approaches, does not require hand-crafted features or training with massive data. The dissertation concludes by identifying additional challenges and future work in extracting information from the scientific literature

    Non-invasive wearable sensing system for sleep disorder monitoring

    Get PDF
    Dissertação de mestrado, Engenharia Electrónica e Telecomunicações, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2017This Master Thesis introduced a proposal of a remote sensory system for the detection of sleep disorders in geriatric outpatients. Although the most accurate solution would be an in-depth study in a sleep clinic, it is not a realistic environment for the elderly. The objective is that the patient stays at home, and without changing their daily routines, the clinicians get objective information in order to make a correct diagnosis of the sleep disorders. Sleep disorders are often classified as medical disorders corresponding to modifications on the sleep patterns and the amount of these modifications increase with age. However, regularly, these illnesses are undiagnosed, since is hard for the patients to explain the symptoms to the doctor. To achieve the proposed objective, we studied the polysomnography bio-signals that could be used to accurate reflect the sleep disorders occurrences. We designed a Body Sensor Network (BSN) to be divided into both movement assessment (Accelerometer and Gyroscope) and biomedical signals (EMG, ECG, PPG, GSR) evaluation. These signals, reflecting both breathing and cardiac activities, are processed by a specifically developed algorithm. The reduction of the number of sensors was also envisaged, and it was decided to use 3 biomedical sensors instead of the minimum of 22 sensors used by polysomnography. Thus, to offer better visualization of the recorded signals a software interface was developed to include the processing and visualization of the signals. To identify the sleep stage and apnea state, we settled an algorithm that processes both ECG and EMG. To validate this algorithm, it was decided to use two sources of data: PhysioNet data base containing ECG and EMG signals and data recorded by our BSN on volunteers. With this work, we were able to build a BSN capable of detecting a set of sleep disorders, without using any invasive method. The network provides reliable data, and using the developed interface, it helps elderly health providers to carry out an in-depth analysis of the information and to better identify sleep disorders.Este trabalho introduz uma proposta de uma monitorização remota de saúde para a deteção de desordens de sono em pacientes ambulatórios geriátricos. As desordens de sono são as condições que afetam a habilidade de dormir bem regularmente. Podem ser causadas por um problema de saúde ou por elevado stress. Embora a solução mais precisa seja um estudo aprofundado numa clínica de sono, este não corresponde a um cenário realista para os idosos, corrompendo os dados registados devido ao stress associado ao ambiente desconhecido. De modo a que o paciente não saia de sua casa e não altere as suas rotinas diárias, o sistema desenvolvido tem um uso simples que pode ser utilizado num ambiente amigável e seguro para o paciente. Isto irá providenciar informação objetiva aos clínicos, de modo a diagnosticar as desordens de sono de maneira correta, já que os pacientes por vezes têm dificuldade em explicar os sintomas aos médicos durante a consulta, o que vai provocar um elevado número de casos subdiagnosticados. O primeiro passo a tomar, de modo a criar um sistema de monitoramento remoto doméstico, é definir quais são os sinais a monitorizar. O primeiro sinal definido para ser alvo de monitoramento foi o Eletrocardiograma (ECG). A razão deve-se ao fato de este sinal já ter sido empregado em variadíssimos estudos relativos ao sono, em que os pesquisadores utilizam a Heart Rate Variability (HRV) para a deteção de apneias de sono (tanto no domínio do tempo ou frequência) e outros transtornos de sono. Neste trabalho vamos tentar identificar episódios de acoplamento cardiorrespiratório, ao analisar a HRV. O segundo sinal a ser eleito foi o Eletromiograma (EMG) proveniente do queixo. Este sinal foi escolhido, devido à correlação que tinha com o sinal ECG na presença de episódios de apneia obstrutivos. Este fenómeno deve-se à dificuldade que o paciente tem ao inspirar, pois como tem as vias respiratórias obstruídas, o ar não chega aos pulmões. Isto vai levar a um esforço extra por parte do paciente, que se vai traduzir num aumento de amplitude do sinal. Esta variação vai novamente aparecer dez ou mais segundos depois, quando o ar voltar a entrar nos pulmões, e o paciente voltar a respirar normalmente. Para além de estes dois sinais biomédicos, também vamos monitorizar o sinal Fotopletismografia (PPG) e a resposta galvânica da pele (GSR). O PPG é usado para detetar as diferenças no volume do sangue, de modo a avaliar a circulação periférica enquanto que a resposta galvânica mede a condutividade da pele. Ambos os sinais apresentaram características distintivas na presença de apneia, e podem ser alvo de estudo detalhado em trabalhos futuros. Em termos de sinal de movimento, foram gravados e analisados os sinais do acelerómetros e giroscópios em dois locais distintos: na região do diafragma, de modo a obter dados que se possam correlacionar com doenças respiratórias relacionadas com o sono, e na coxa esquerda. Esta informação não vai ser utilizada minuciosamente no presente trabalho, mas no futuro irá ser empregada de modo a ser correlacionada com distúrbios do movimento do sono. Identificados os sinais a ser supervisionados e a informação proveniente, vai ser desenvolvido um algoritmo para diferenciar o estado de apneia obstrutiva (OSA) e o estado de sono normal (NS). No algoritmo proposto foi processado o sinal ECG de modo a obter a HRV. O nosso algoritmo foi baseado no domínio da frequência, dado que a literatura aponta como a forma mais adequada para revelar diferenças de episódios de apneia obstrutiva e sono normal [1]. Ao processar a HRV, obtemos as suas características, e é efetuada a densidade espetral de potência (PSD) na Very Low Frequency (VLF) e High Frequency (HF). Escolhemos estas duas bandas de frequência, porque está provado que são as melhores na distinção entre o estado de sono e o estado de apneia. No caso da VLF, o máximo em OSA é mais proeminente que no NS. Já o inverso ocorre na banda de HF, em que no estado NS, existe um pico que surge devido à arritmia do seio respiratório (RSA) e que normalmente tem o aspeto de uma curva gaussiana. Reconhecidas as diferenças entre os dois estados, são definidos thresholds para estado de apneia e estado de sono normal. Estes limites serão verificado por uma Moving Average Window com um tamanho de 60 segundos. No começo, o algoritmo vai desprezar os primeiro 60 segundos. Após este período, a janela média móvel vai fazer a PSD para HF e VLF e verifica se para ambos os resultados, o threshold é cumprido. Caso os limites sejam atingidos, a janela desloca-se 10 segundos, e aplica os mesmo método, durante os próximos 50 segundos, de modo a termos os valores para 60 segundos. Após a recolha total de dados, é feita a média dos 60 segundos para as duas bandas de frequência. Se ambas atingirem o threshold definido, o intervalo é definido como OSA. Para testar este algoritmo foram utilizadas duas bases de dados: a PhysioNet, que tem informação clinicamente anotada por médicos e é utilizada em diversos trabalhos nesta área, e também iremos testar na informação recolhida pela nossa rede de sensores. Relativamente à base de dados da PhysioNet, os resultados obtidos foram bastante satisfatórios, com precisão a 87,8%, especificidade a 89,9% e sensibilidade a 86,3%. No caso dos sinais recolhidos pela rede de sensores proposta, foi escolhido um dos voluntários que já tinha sido previamente diagnósticos com apneia severa de modo a aumentar as nossas chances de encontrar episódios de apneia. Não foi possível definir valores para a precisão, especificidade e sensibilidade já que não temos um sinal de referência com anotações médicas, para compararmos com os resultados obtidos pelo nosso algoritmo. Em alguns intervalos que foram identificados como episódios de apneia, os sinais recolhidos foram verificados no domínio do tempo, e foram encontradas correlações entre o sinal HRV, EMG, acelerómetro e giroscópio, em que estes dois últimos são sinais obtidos oriundos do peito. De modo a aumentar a precisão do sistema proposto, o próximo passo vai ser incluir o sinal EMG no nosso sistema. Como foi observado em literatura previamente lida, é possível usar a PSD no sinal EMG, para diferenciar entre indivíduos com determinada patologia e indivíduos saudáveis [2]. Por isso aplicamos a PSD no sinal EMG, nos dois diferentes estados (NS e OSA) e obtivemos curvas semelhantes para ambos os estados, obtidas no sinal ECG. Tal fato deve-se provavelmente à componente respiratória que vai influenciar o sinal muscular obtido do queixo. De modo a que os sinais sejam facilmente visualizados, também foi desenvolvida uma interface gráfica, na aplicação do Matlab™ GUIDE, que irá dar aos utilizadores acesso aos sinais gravados pela nossa rede de sensores, e possivelmente a aplicação do algoritmo proposto, para vermos em que pontos os episódios de apneia ocorreram

    Beyond sight : an approach for visual semantic navigation of mobile robots in an indoor environment

    Get PDF
    Orientador: Eduardo TodtDissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa : Curitiba, 22/02/2021Inclui referências: p. 134-146Área de concentração: Ciência da ComputaçãoResumo: Com o crescimento da automacao, os veiculos nao tripulados tornaram-se um tema de destaque, tanto como produtos comerciais quanto como um topico de pesquisa cientifica. Compoem um campo multidisciplinar de robotica que abrange sistemas embarcados, teoria de controle, planejamento de caminhos, localizacao e mapeamento simultaneos (SLAM), reconstrucao de cenas e reconhecimento de padroes. Apresentamos neste trabalho uma pesquisa exploratoria de como a fusao dos dados de sensores e algoritmos de aprendizagem de maquinas, que compoem o estado da arte, podem realizar a tarefa chamada Navegacao Visual Semantica que e uma navegacao autonoma utilizando observacoes visuais egocentricas para alcancar um objeto pertencente a classe semantica alvo sem conhecimento previo do ambiente. Para realizar experimentos, propomos uma encarnacao chamada VRIBot. O robo foi modelado de tal forma que pode ser facilmente simulado, e os experimentos sao reproduziveis sem a necessidade do robo fisico. Tres diferentes pipelines EXchangeable, AUTOcrat e BEyond foram propostos e avaliados. Nossa abordagem chamada BEyond alcancou a 5a posicao entre 12 no conjunto val_mini do Habitat-Challenge 2020 ObjectNav quando comparada a outros resultados relatados na tabela classificativa da competicao. O resultado da pesquisa mostra que a fusao de dados em conjunto com algoritmos de aprendizado de maquina sao uma abordagem promissora para o problema de navegacao semantica. Palavras-chave: Navegacao-visual-semantica. SLAM. Aprendizado-profundo. Navegacao- Autonoma. Segmentacao-semantica.Abstract: With the rise of automation, unmanned vehicles became a hot topic both as commercial products and as a scientific research topic. It composes a multi-disciplinary field of robotics that encompasses embedded systems, control theory, path planning, Simultaneous Localization and Mapping (SLAM), scene reconstruction, and pattern recognition. In this work, we present our exploratory research of how sensor data fusion and state-of-the-art machine learning algorithms can perform the Embodied Artificial Intelligence (E-AI) task called Visual Semantic Navigation, a.k.a Object-Goal Navigation (ObjectNav) that is an autonomous navigation using egocentric visual observations to reach an object belonging to the target semantic class without prior knowledge of the environment. To perform experimentation, we propose an embodiment named VRIBot. The robot was modeled in such a way that it can be easily simulated, and the experiments are reproducible without the need for the physical robot. Three different pipelines EXchangeable, AUTOcrat, and BEyond, were proposed and evaluated. Our approach, named BEyond, reached 5th rank out of 12 on the val_mini set of the Habitat-Challenge 2020 ObjectNav when compared to other reported results on the competition's leaderboard. Our results show that data fusion combined with machine learning algorithms are a promising approach to the semantic navigation problem. Keywords: Visual-semantic-navigation. Deep-Learning. SLAM. Autonomous-navigation. Semantic-segmentation
    corecore