4,308 research outputs found

    Multivariate Markov networks for fitness modelling in an estimation of distribution algorithm.

    Get PDF
    A well-known paradigm for optimisation is the evolutionary algorithm (EA). An EA maintains a population of possible solutions to a problem which converges on a global optimum using biologically-inspired selection and reproduction operators. These algorithms have been shown to perform well on a variety of hard optimisation and search problems. A recent development in evolutionary computation is the Estimation of Distribution Algorithm (EDA) which replaces the traditional genetic reproduction operators (crossover and mutation) with the construction and sampling of a probabilistic model. While this can often represent a significant computational expense, the benefit is that the model contains explicit information about the fitness function. This thesis expands on recent work using a Markov network to model fitness in an EDA, resulting in what we call the Markov Fitness Model (MFM). The work has explored the theoretical foundations of the MFM approach which are grounded in Walsh analysis of fitness functions. This has allowed us to demonstrate a clear relationship between the fitness model and the underlying dynamics of the problem. A key achievement is that we have been able to show how the model can be used to predict fitness and have devised a measure of fitness modelling capability called the fitness prediction correlation (FPC). We have performed a series of experiments which use the FPC to investigate the effect of population size and selection operator on the fitness modelling capability. The results and analysis of these experiments are an important addition to other work on diversity and fitness distribution within populations. With this improved understanding of fitness modelling we have been able to extend the framework Distribution Estimation Using Markov networks (DEUM) to use a multivariate probabilistic model. We have proposed and demonstrated the performance of a number of algorithms based on this framework which lever the MFM for optimisation, which can now be added to the EA toolbox. As part of this we have investigated existing techniques for learning the structure of the MFM; a further contribution which results from this is the introduction of precision and recall as measures of structure quality. We have also proposed a number of possible directions that future work could take

    Graph Neural Network-enabled Terahertz-based Flow-guided Nanoscale Localization

    Full text link
    Scientific advancements in nanotechnology and advanced materials are paving the way toward nanoscale devices for in-body precision medicine; comprising integrated sensing, computing, communication, data and energy storage capabilities. In the human cardiovascular system, such devices are envisioned to be passively flowing and continuously sensing for detecting events of diagnostic interest. The diagnostic value of detecting such events can be enhanced by assigning to them their physical locations (e.g., body region), which is the main proposition of flow-guided localization. Current flow-guided localization approaches suffer from low localization accuracy and they are by-design unable to localize events within the entire cardiovascular system. Toward addressing this issue, we propose the utilization of Graph Neural Networks (GNNs) for this purpose, and demonstrate localization accuracy and coverage enhancements of our proposal over the existing State of the Art (SotA) approaches. Based on our evaluation, we provide several design guidelines for GNN-enabled flow-guided localization.Comment: 6 pages, 5 figures, 1 table, 15 references. arXiv admin note: text overlap with arXiv:2305.1849

    A music cognition-guided framework for multi-pitch estimation.

    Get PDF
    As one of the most important subtasks of automatic music transcription (AMT), multi-pitch estimation (MPE) has been studied extensively for predicting the fundamental frequencies in the frames of audio recordings during the past decade. However, how to use music perception and cognition for MPE has not yet been thoroughly investigated. Motivated by this, this demonstrates how to effectively detect the fundamental frequency and the harmonic structure of polyphonic music using a cognitive framework. Inspired by cognitive neuroscience, an integration of the constant Q transform and a state-of-the-art matrix factorization method called shift-invariant probabilistic latent component analysis (SI-PLCA) are proposed to resolve the polyphonic short-time magnitude log-spectra for multiple pitch estimation and source-specific feature extraction. The cognitions of rhythm, harmonic periodicity and instrument timbre are used to guide the analysis of characterizing contiguous notes and the relationship between fundamental frequency and harmonic frequencies for detecting the pitches from the outcomes of SI-PLCA. In the experiment, we compare the performance of proposed MPE system to a number of existing state-of-the-art approaches (seven weak learning methods and four deep learning methods) on three widely used datasets (i.e. MAPS, BACH10 and TRIOS) in terms of F-measure (F1) values. The experimental results show that the proposed MPE method provides the best overall performance against other existing methods

    Optical techniques for 3D surface reconstruction in computer-assisted laparoscopic surgery

    Get PDF
    One of the main challenges for computer-assisted surgery (CAS) is to determine the intra-opera- tive morphology and motion of soft-tissues. This information is prerequisite to the registration of multi-modal patient-specific data for enhancing the surgeon’s navigation capabilites by observ- ing beyond exposed tissue surfaces and for providing intelligent control of robotic-assisted in- struments. In minimally invasive surgery (MIS), optical techniques are an increasingly attractive approach for in vivo 3D reconstruction of the soft-tissue surface geometry. This paper reviews the state-of-the-art methods for optical intra-operative 3D reconstruction in laparoscopic surgery and discusses the technical challenges and future perspectives towards clinical translation. With the recent paradigm shift of surgical practice towards MIS and new developments in 3D opti- cal imaging, this is a timely discussion about technologies that could facilitate complex CAS procedures in dynamic and deformable anatomical regions

    The effect of using multiple connectivity metrics in brain Functional Connectivity studies

    Get PDF
    Tese de mestrado integrado, Engenharia Biomédica e Biofísica (Sinais e Imagens Médicas) Universidade de Lisboa, Faculdade de Ciências, 2022Resting-state functional magnetic resonance imaging (rs-fMRI) has the potential to assist as a diagnostic or prognostic tool for a diverse set of neurological and neuropsychiatric disorders, which are often difficult to differentiate. fMRI focuses on the study of the brain functional Connectome, which is characterized by the functional connections and neuronal activity among different brain regions, also interpreted as communications between pairs of regions. This Functional Connectivity (FC) is quantified through the statistical dependences between brain regions’ blood-oxygen-level-dependent (BOLD) signals time-series, being traditionally evaluated by correlation coefficient metrics and represented as FC matrices. However, several studies underlined limitations regarding the use of correlation metrics to fully capture information from these signals, leading investigators towards different statistical metrics that would fill those shortcomings. Recently, investigators have turned their attention to Deep Learning (DL) models, outperforming traditional Machine Learning (ML) techniques due to their ability to automatically extract relevant information from high-dimensional data, like FC data, using these models with rs-fMRI data to improve diagnostic predictions, as well as to understand pathological patterns in functional Connectome, that can lead to the discovery of new biomarkers. In spite of very encouraging performances, the black-box nature of DL algorithms makes difficult to know which input information led the model to a certain prediction, restricting its use in clinical settings. The objective of this dissertation is to exploit the power of DL models, understanding how FC matrices created from different statistical metrics can provide information about the brain FC, beyond the conventionally used correlation family. Two publicly available datasets where studied, the ABIDE I dataset, composed by healthy and autism spectrum disease (ASD) individuals, and the ADHD-200 dataset, with typically developed controls and individuals with attention-deficit/hyperactive disorder (ADHD). The computation of the FC matrices of both datasets, using different statistical metrics, was performed in MATLAB using MULAN’s toolbox functions, encompassing the correlation coefficient, non-linear correlation coefficient, mutual information, coherence and transfer entropy. The classification of FC data was performed using two DL models, the improved ConnectomeCNN model and the innovative ConnectomeCNN-Autoencoder model. Moreover, another goal is to study the effect of a multi-metric approach in classification performances, combining multiple FC matrices computed from the different statistical metrics used, as well as to study the use of Explainable Artificial Intelligence (XAI) techniques, namely Layer-wise Relevance Propagation method (LRP), to surpass the black-box problem of DL models used, in order to reveal the most important brain regions in ADHD. The results show that the use of other statistical metrics to compute FC matrices can be a useful complement to the traditional correlation metric methods for the classification between healthy subjects and subjects diagnosed with ADHD and ASD. Namely, non-linear metrics like h2 and mutual information, achieved similar and, in some cases, even slightly better performances than correlation methods. The use of FC multi-metric, despite not showing improvements in classification performance compared to the best individual method, presented promising results, namely the ability of this approach to select the best features from all the FC matrices combined, achieving a similar performance in relation to the best individual metric in each of the evaluation measures of the model, leading to a more complete classification. The LRP analysis applied to ADHD-200 dataset proved to be promising, identifying brain regions related to the pathophysiology of ADHD, which are in broad accordance with FC and structural study’s findings.A ressonância magnética funcional em estado de repouso (rs-fMRI) tem o potencial de ser uma ferramenta auxiliar de diagnóstico ou prognóstico para um conjunto diversificado de distúrbios neurológicos e neuropsiquiátricos, que muitas vezes são difíceis de diferenciar. A análise de dados de rs-fMRI recorre muitas vezes ao conceito de conectoma funcional do cérebro, que se caracteriza pelas conexões funcionais entre as diferentes regiões do cérebro, sendo estas conexões interpretadas como comunicações entre diferentes pares de regiões cerebrais. Esta conectividade funcional é quantificada através de dependências estatísticas entre os sinais fMRI das regiões cerebrais, sendo estas tradicionalmente calculadas através da métrica coeficiente de correlação, e representadas através de matrizes de conectividade funcional. No entanto, vários estudos demonstraram limitações em relação ao uso de métricas de correlação, em que estas não conseguem capturar por completo todas as informações presentes nesses sinais, levando os investigadores à procura de diferentes métricas estatísticas que pudessem preencher essas lacunas na obtenção de informações mais completas desses sinais. O estudo destes distúrbios neurológicos e neuropsiquiátricos começou por se basear em técnicas como mapeamento paramétrico estatístico, no contexto de estudos de fMRI baseados em tarefas. Porém, essas técnicas apresentam certas limitações, nomeadamente a suposição de que cada região cerebral atua de forma independente, o que não corresponde ao conhecimento atual sobre o funcionamento do cérebro. O surgimento da rs-fMRI permitiu obter uma perspetiva mais global e deu origem a uma vasta literatura sobre o efeito de patologias nos padrões de conetividade em repouso, incluindo tentativas de diagnóstico automatizado com base em biomarcadores extraídos dos conectomas. Nos últimos anos, os investigadores voltaram a sua atenção para técnicas de diferentes ramos de Inteligência Artificial, mais propriamente para os algoritmos de Deep Learning (DL), uma vez que são capazes de superar os algoritmos tradicionais de Machine Learning (ML), que foram aplicados a estes estudos numa fase inicial, devido à sua capacidade de extrair automaticamente informações relevantes de dados de alta dimensão, como é o caso dos dados de conectividade funcional. Esses modelos utilizam os dados obtidos da rs-fMRI para melhorar as previsões de diagnóstico em relação às técnicas usadas atualmente em termos de precisão e rapidez, bem como para compreender melhor os padrões patológicos nas conexões funcionais destes distúrbios, podendo levar à descoberta de novos biomarcadores. Apesar do notável desempenho destes modelos, a arquitetura natural em caixa-preta dos algoritmos de DL, torna difícil saber quais as informações dos dados de entrada que levaram o modelo a executar uma determinada previsão, podendo este utilizar informações erradas dos dados para alcançar uma dada inferência, restringindo o seu uso em ambientes clínicos. O objetivo desta dissertação, desenvolvida no Instituto de Biofísica e Engenharia Biomédica, é explorar o poder dos modelos DL, de forma a avaliar até que ponto matrizes de conectividade funcional criadas a partir de diferentes métricas estatísticas podem fornecer mais informações sobre a conectividade funcional do cérebro, para além das métricas de correlação convencionalmente usadas neste tipo de estudos. Foram estudados dois conjuntos de dados bastante utilizados em estudos de Neurociência e que estão disponíveis publicamente: o conjunto de dados ABIDE-I, composto por indivíduos saudáveis e indivíduos com doenças do espectro do autismo (ASD), e o conjunto de dados ADHD-200, com controlos tipicamente desenvolvidos e indivíduos com transtorno do défice de atenção e hiperatividade (ADHD). Numa primeira fase foi realizada a computação das matrizes de conetividade funcional de ambos os conjuntos de dados, usando as diferentes métricas estatísticas. Para isso, foi desenvolvido código de MATLAB, onde se utilizam as séries temporais dos sinais BOLD obtidas dos dois conjuntos de dados para criar essas mesmas matrizes de conectividade funcional, incorporando funções de diferentes métricas estatísticas da caixa de ferramentas MULAN, compreendendo o coeficiente de correlação, o coeficiente de correlação não linear, a informação mútua, a coerência e a entropia de transferência. De seguida, a classificação dos dados de conectividade funcional, de forma a avaliar o efeito do uso de diferentes métricas estatísticas para a criação de matrizes de conectividade funcional na discriminação de sujeitos saudáveis e patológicos, foi realizada usando dois modelos de DL. O modelo ConnectomeCNN melhorado e o modelo inovador ConnectomeCNN-Autoencoder foram desenvolvidos com recurso à biblioteca de Redes Neuronais Keras, juntamente com o seu backend Tensorflow, ambos em Python. Estes modelos, desenvolvidos previamente no Instituto de Biofísica e Engenharia Biomédica, tiveram de ser otimizados de forma a obter a melhor performance, onde vários parâmetros dos modelos e do respetivo treino dos mesmos foram testados para os dados a estudar. Pretendeu-se também estudar o efeito de uma abordagem multi-métrica nas tarefas de classificação dos sujeitos de ambos os conjuntos de dados, sendo que, para estudar essa abordagem as diferentes matrizes calculadas a partir das diferentes métricas estatísticas utilizadas, foram combinadas, sendo usados os mesmos modelos que foram aplicados às matrizes de conectividade funcional de cada métrica estatística individualmente. É importante realçar que na abordagem multi-métrica também foi realizada a otimização dos parâmetros dos modelos utilizados e do respetivo treino, de modo a conseguir a melhor performance dos mesmos para estes dados. Para além destes dois objetivos, estudou-se o uso de técnicas de Inteligência Artificial Explicável (XAI), mais especificamente o método Layer-wise Relevance Propagation (LRP), com vista a superar o problema da caixa-preta dos modelos de DL, com a finalidade de explicar como é que os modelos estão a utilizar os dados de entrada para realizar uma dada previsão. O método LRP foi aplicado aos dois modelos utilizados anteriormente, usando como dados de entrada o conjunto de dados ADHD-200, permitindo assim revelar quais as regiões cerebrais mais importantes no que toca a um diagnóstico relacionado com o ADHD. Os resultados obtidos mostram que o uso de outras métricas estatísticas para criar as matrizes de Conectividade Funcional podem ser um complemento bastante útil às métricas estatísticas tradicionalmente utilizadas para a classificação entre indivíduos saudáveis e indivíduos como ASD e ADHD. Nomeadamente métricas estatísticas não lineares como o h2 e a informação mútua, obtiveram desempenhos semelhantes e, em alguns casos, desempenhos ligeiramente melhores em relação aos desempenhos obtidos por métodos de correlação, convencionalmente usados nestes estudos de conectividade funcional. A utilização da multi-métrica de conectividade funcional, apesar de não apresentar melhorias no desempenho geral da classificação em relação ao melhor método das matrizes de conectividade funcional individuais do conjunto de métricas estatísticas abordadas, apresenta resultados que justificam a exploração mais aprofundada deste tipo de abordagem, de forma a compreender melhor a complementaridade das métricas e a melhor maneira de as utilizar. O uso do método LRP aplicado ao conjunto de dados do ADHD-200 mostrou a sua aplicabilidade a este tipo de estudos e a modelos de DL, identificando as regiões cerebrais mais relacionadas à fisiopatologia do diagnóstico do ADHD que são compatíveis com o que é reportado por diversos estudos de conectividade funcional e estudos de alterações estruturais associados a esta doença. O facto destas técnicas de XAI demonstrarem como é que os modelos de DL estão a usar os dados de entrada para efetuar as previsões, pode significar uma mais rápida e aceite adoção destes algoritmos em ambientes clínicos. Estas técnicas podem auxiliar o diagnóstico e prognóstico destes distúrbios neurológicos e neuropsiquiátricos, que são na maioria das vezes difíceis de diferenciar, permitindo aos médicos adquirirem um conhecimento em relação à previsão realizada e poder explicar a mesma aos seus pacientes

    Deep Learning Methods for Remote Sensing

    Get PDF
    Remote sensing is a field where important physical characteristics of an area are exacted using emitted radiation generally captured by satellite cameras, sensors onboard aerial vehicles, etc. Captured data help researchers develop solutions to sense and detect various characteristics such as forest fires, flooding, changes in urban areas, crop diseases, soil moisture, etc. The recent impressive progress in artificial intelligence (AI) and deep learning has sparked innovations in technologies, algorithms, and approaches and led to results that were unachievable until recently in multiple areas, among them remote sensing. This book consists of sixteen peer-reviewed papers covering new advances in the use of AI for remote sensing

    NASA/ASEE Summer Faculty Fellowship Program, 1990, Volume 1

    Get PDF
    The 1990 Johnson Space Center (JSC) NASA/American Society for Engineering Education (ASEE) Summer Faculty Fellowship Program was conducted by the University of Houston-University Park and JSC. A compilation of the final reports on the research projects are presented. The topics covered include: the Space Station; the Space Shuttle; exobiology; cell biology; culture techniques; control systems design; laser induced fluorescence; spacecraft reliability analysis; reduced gravity; biotechnology; microgravity applications; regenerative life support systems; imaging techniques; cardiovascular system; physiological effects; extravehicular mobility units; mathematical models; bioreactors; computerized simulation; microgravity simulation; and dynamic structural analysis
    corecore