4,316 research outputs found

    Topology reconstruction of tree-like structure in images via structural similarity measure and dominant set clustering

    Get PDF
    The reconstruction and analysis of tree-like topological structures in the biomedical images is crucial for biologists and surgeons to understand biomedical conditions and plan surgical procedures. The underlying tree-structure topology reveals how different curvilinear components are anatomically connected to each other. Existing automated topology reconstruction methods have great difficulty in identifying the connectivity when two or more curvilinear components cross or bifurcate, due to their projection ambiguity, imaging noise and low contrast. In this paper, we propose a novel curvilinear structural similarity measure to guide a dominant-set clustering approach to address this indispensable issue. The novel similarity measure takes into account both intensity and geometric properties in representing the curvilinear structure locally and globally, and group curvilinear objects at crossover points into different connected branches by dominant-set clustering. The proposed method is applicable to different imaging modalities, and quantitative and qualitative results on retinal vessel, plant root, and neuronal network datasets show that our methodology is capable of advancing the current state-of-the-art techniques

    Hierarchical structure-and-motion recovery from uncalibrated images

    Full text link
    This paper addresses the structure-and-motion problem, that requires to find camera motion and 3D struc- ture from point matches. A new pipeline, dubbed Samantha, is presented, that departs from the prevailing sequential paradigm and embraces instead a hierarchical approach. This method has several advantages, like a provably lower computational complexity, which is necessary to achieve true scalability, and better error containment, leading to more stability and less drift. Moreover, a practical autocalibration procedure allows to process images without ancillary information. Experiments with real data assess the accuracy and the computational efficiency of the method.Comment: Accepted for publication in CVI

    Data-Driven Shape Analysis and Processing

    Full text link
    Data-driven methods play an increasingly important role in discovering geometric, structural, and semantic relationships between 3D shapes in collections, and applying this analysis to support intelligent modeling, editing, and visualization of geometric data. In contrast to traditional approaches, a key feature of data-driven approaches is that they aggregate information from a collection of shapes to improve the analysis and processing of individual shapes. In addition, they are able to learn models that reason about properties and relationships of shapes without relying on hard-coded rules or explicitly programmed instructions. We provide an overview of the main concepts and components of these techniques, and discuss their application to shape classification, segmentation, matching, reconstruction, modeling and exploration, as well as scene analysis and synthesis, through reviewing the literature and relating the existing works with both qualitative and numerical comparisons. We conclude our report with ideas that can inspire future research in data-driven shape analysis and processing.Comment: 10 pages, 19 figure

    Large Oligomeric Complex Structures Can Be Computationally Assembled by Efficiently Combining Docked Interfaces

    No full text
    Macromolecular oligomeric assemblies are involved in many biochemical processes of living organisms. The benefits of such assemblies in crowded cellular environments include increased reaction rates, efficient feedback regulation, cooperativity and protective functions. However, an atom‐level structural determination of large assemblies is challenging due to the size of the complex and the difference in binding affinities of the involved proteins. In this study, we propose a novel combinatorial greedy algorithm for assembling large oligomeric complexes from information on the approximate position of interaction interfaces of pairs of monomers in the complex. Prior information on complex symmetry is not required but rather the symmetry is inferred during assembly. We implement an efficient geometric score, the transformation match score, that bypasses the model ranking problems of state‐of‐the‐art scoring functions by scoring the similarity between the inferred dimers of the same monomer simultaneously with different binding partners in a (sub)complex with a set of pregenerated docking poses. We compiled a diverse benchmark set of 308 homo and heteromeric complexes containing 6 to 60 monomers. To explore the applicability of the method, we considered 48 sets of parameters and selected those three sets of parameters, for which the algorithm can correctly reconstruct the maximum number, namely 252 complexes (81.8%) in, at least one of the respective three runs. The crossvalidation coverage, that is, the mean fraction of correctly reconstructed benchmark complexes during crossvalidation, was 78.1%, which demonstrates the ability of the presented method to correctly reconstruct topology of a large variety of biological complexes. Proteins 2015; 83:1887–1899. © 2015 The Authors. Proteins: Structure, Function, and Bioinformatics Published by Wiley Periodicals, Inc

    Bayesian nonparametric clusterings in relational and high-dimensional settings with applications in bioinformatics.

    Get PDF
    Recent advances in high throughput methodologies offer researchers the ability to understand complex systems via high dimensional and multi-relational data. One example is the realm of molecular biology where disparate data (such as gene sequence, gene expression, and interaction information) are available for various snapshots of biological systems. This type of high dimensional and multirelational data allows for unprecedented detailed analysis, but also presents challenges in accounting for all the variability. High dimensional data often has a multitude of underlying relationships, each represented by a separate clustering structure, where the number of structures is typically unknown a priori. To address the challenges faced by traditional clustering methods on high dimensional and multirelational data, we developed three feature selection and cross-clustering methods: 1) infinite relational model with feature selection (FIRM) which incorporates the rich information of multirelational data; 2) Bayesian Hierarchical Cross-Clustering (BHCC), a deterministic approximation to Cross Dirichlet Process mixture (CDPM) and to cross-clustering; and 3) randomized approximation (RBHCC), based on a truncated hierarchy. An extension of BHCC, Bayesian Congruence Measuring (BCM), is proposed to measure incongruence between genes and to identify sets of congruent loci with identical evolutionary histories. We adapt our BHCC algorithm to the inference of BCM, where the intended structure of each view (congruent loci) represents consistent evolutionary processes. We consider an application of FIRM on categorizing mRNA and microRNA. The model uses latent structures to encode the expression pattern and the gene ontology annotations. We also apply FIRM to recover the categories of ligands and proteins, and to predict unknown drug-target interactions, where latent categorization structure encodes drug-target interaction, chemical compound similarity, and amino acid sequence similarity. BHCC and RBHCC are shown to have improved predictive performance (both in terms of cluster membership and missing value prediction) compared to traditional clustering methods. Our results suggest that these novel approaches to integrating multi-relational information have a promising future in the biological sciences where incorporating data related to varying features is often regarded as a daunting task

    Reproducibility and sensitivity of brain network backbones: a demonstration in Small Vessel Disease

    Get PDF
    Mestrado integrado em Engenharia Biomédica e Biofísica (Sinais e Imagens Médicas) Universidade de Lisboa; Faculdade de Ciências, 2020Whole-brain networks have been used to study the connectivity paths within the brain, constructed using information from diffusion magnetic resonance imaging (dMRI) data and white matter fiber tractography (FT). These techniques can detect alterations in the white matter integrity and changes in axonal connections, whose alterations can be due to the presence of small vessel disease (SVD). However, there is a lack of consensus in network reconstruction methods and therefore no gold-standard model of the human brain network. Moreover, dMRI data are affected by methodological issues such as scan noise, presence of false-positive and false-negative connections. Consequently, the reproducibility and the reliability of these networks is normally very low. A potential solution to deal with the low reproducibility of brain networks is to analyze only its backbone structure. This backbone is assumed to represent the building blocks of structural brain networks and thus composed by a set of strong connections and voided of spurious connections. Such backbone should be reproducible in scan-rescan scenarios and relatively consistent between healthy subjects, while still being sensitive to disease-related changes. Several types of backbones have been proposed, constructed using white matter tractography, with dMRI data. However, no study has directly compared these backbones in terms of reproducibility, consistency, or sensitivity to disease effects in a patient population. In this project, we examined: (1) whether the proposed backbones can be applied to clinical datasets by testing if they are reproducible over two time-points and consistent between groups; (2) if they are sensitive to disease effects both in a cross-sectional and longitudinal analysis. We evaluated our research questions on a longitudinal cohort of patients with cerebral SVD and age matched controls, as well as a validation dataset of healthy young adults. Our cohort contained 87 elderly memory clinic patients with SVD recruited via the UMC Utrecht, scanned twice with an inter-scan time between baseline and follow-up of 27 ± 4 months. We also included baseline scans of 45 healthy elderly, matched in age, sex and education level, to be used as controls. Data from 44 healthy young adults was used as validation data. For each subject, we reconstructed brain structural networks from the diffusion MRI data. Subsequently, we computed 4 types of network backbone, previously described in literature: the Minimal Spanning Tree (MST), the Disparity Core, the K-Core, and Hub-Core. We compared these backbones and tested their reproducibility within subjects, and their consistency across subjects and across groups. Moreover, we performed a cross-sectional analysis between controls and patients at baseline, to evaluate if these backbones can detect disease effects and a longitudinal analysis with patient data over time, to test if they can detect disease progression. Regarding our first objective, our results show that overall MST is the backbone that shows the best reproducibility between repeated scans, as well as the highest consistency among subjects, for all of the three brain templates that we used. Secondly, the MST was also sensitive to network alterations both on a cross-sectional analysis (patients vs. controls) and on a longitudinal analysis (baseline vs. follow-up). We therefore conclude that, the use of these network backbones, as an alternative of the whole-brain network analysis, can successfully be applied to clinical datasets as a novel and reliable way to detect disease effects and evaluate disease progression.A demência vascular cerebral (SVD) é a segunda principal causa de demência, depois da doença de Alzheimer. Este tipo de demência está relacionado com patologias vasculares cerebrais, assim como com perda de funcionalidades cognitivas. Vários estudos explicam que a degradação da atividade cognitiva característica desta doença pode dever-se à diminuição da integridade da substância branca e a alterações nas conexões axonais. O estudo da conectividade cerebral tem sido uma forte aposta no estudo das causas e da forma como a demência vascular cerebral evolui. A construção de mapas neuronais é uma das práticas que mais tem sido usada para estudar e entender os mecanismos principais da conectividade cerebral: representar o cérebro como um conjunto de regiões e as ligações entre elas. Para isso, utiliza-se informação proveniente de imagens de ressonância magnética por difusão (dMRI), especificamente de imagens por tensor de difusão (DTI), capazes de medir a magnitude de difusão das moléculas de água no cérebro in vivo, através de gradientes aplicados em pelo menos seis direções no espaço. Desta forma, é possível estimar a direção principal do movimento das moléculas de água que compõem as microfibras da substância branca cerebral, e reconstruir os percursos de neurónios que conectam as várias regiões do cérebro. Este processo é chamado de tractografia de fibras (FT), que proporciona um modelo a três dimensões da arquitetura tecidular cerebral, permitindo a visualização e o estudo da conectividade e da continuidade dos percursos neuronais. Assim, é possível obter informação quantitativa acerca do sistema nervoso in vivo e contruir mapas de conectividade cerebral. No entanto, existe falta de consenso sobre as regras de reconstrução destes mapas neuronais, fazendo com que não haja um modelo-base para o estudo dos mesmos. Além disto, os dados provenientes das imagens de dMRI são facilmente afetados e podem diferir da realidade. Alguns exemplos mais comuns são a presença de ruído e existência tanto de conexões falsas como a ausência de conexões que deviam estar presentes, chamadas respetivamente de falsos-positivos e falsos-negativos. Consequentemente, os modelos de conectividade não podem ser comparados entre diferentes aparelhos de ressonância, nem mesmo entre diferentes momentos temporais, por terem uma baixa reprodutibilidade, tornando estes métodos poucos fiáveis. As soluções propostas para lidar com esta falta de consenso quanto à reconstrução de mapas ou redes neuronais e a presença de conexões falsas podem ser agrupadas em duas categorias: normalização e redução da rede neuronal através da aplicação de um limiar (threshold, em inglês). Contudo, os processos de normalização para remover certas tendências erradas destas redes não eram suficientes e, por vezes, introduziam outras dependências. Quanto à aplicação de limiares, mesmo que alguns estudos mostrem que a sua utilização no mapa neuronal do cérebro todo pode efetivamente eliminar alguns efeitos, a própria escolha de um limiar pode conduzir a modificações nas redes neuronais através de eliminação de certas comunicações fundamentais. Como uma extensão da redução destas redes neuronais com o objetivo de lidar com a sua baixa reprodutibilidade, vários estudos têm proposto uma nova abordagem: analisar apenas uma espécie de esqueleto das mesmas. O objetivo deste “esqueleto-neuronal” é o de representar as ligações mais importantes e estruturais e estar isento de falsas conexões. Idealmente, este “esqueleto-neuronal” seria reprodutível entre diferentes dispositivos e consistente entre indivíduos saudáveis, enquanto se manteria fiel às diferenças causadas pela presença de doenças. Assim sendo, o estudo da extração de um esqueleto-neuronal, visa encontrar estruturas fundamentais que evitem a perda de propriedades topológicas. Por exemplo, considerando pacientes com SVD, estes esqueletos-neuronais devem fornecer uma melhor compreensão das alterações da conectividade cerebral ao longo do tempo, permitindo uma comparação sólida entre diferentes pontos no tempo e a identificação de alterações que sejam consequência inegável de doença. Alguns tipos destas redes neuronais foram já propostos em diversas publicações científicas, que podem ser construídos utilizando FT de substância branca com informação proveniente de dMRI. Neste estudo, utilizamos o Minimum Spanning Tree (MST), o K-Core, o Disparity Core e o Hub-Core, que são redes-esqueleto já existentes na literatura. A eficácia tanto do uso do MST como do K-Core já foram comprovadas tanto a nível de deteção de alterações da conectividade cerebral, como na medida em que conseguem manter as conexões mais importantes do esqueleto cerebral, eliminando conexões que podem ser consideradas duvidosas. No entanto, até agora, nenhum estudo se focou na comparação dos diferentes esqueletos-neuronais existentes quanto à sua reproducibilidade, consistência ou sensibilidade aos efeitos de doença ao longo do tempo. Neste estudo, utilizamos os quatro modelos-esqueletos mencionados anteriormente, avaliando: (1) se estes esqueletos-neuronais podem ser efetivamente aplicados a dados clínicos, testando a sua reproducibilidade entre dois pontos de tempos distintos e a sua consistência entre grupos de controlos saudáveis; (2) se são sensíveis a efeitos causados por doença, tanto entre controlos e pacientes, como na evolução de alterações de conectividade em pacientes ao longo do tempo. Os dados longitudinais utilizados provêm de imagens ponderadas em T1 de 87 pacientes idosos com SVD, assim como de um grupo controlo de 45 idosos saudáveis coincidentes em idade com estes pacientes, e de um grupo de validação constituído por 44 jovens saudáveis. Para cada um dos objetivos, testamos os 4 tipos de esqueletos-neuronais, baseados primeiramente num modelo que divide o córtex cerebral em 90 regiões de interesse (ROIs) e posteriormente em modelos de 200 e 250 regiões. No pós-processamento, foram construídas e comparadas matrizes de conectividade que representam as ligações entre as várias regiões em que dividimos o córtex. Com estas matrizes foi possível calcular valores de conectividade como a força nodal (NS) e a eficiência global (GE). Também foram comparadas matrizes que diziam respeito a parâmetros específicos de DTI como a anisotropia fracionada (FA) e a difusividade média (MD). A análise estatística foi feita utilizando testes paramétricos t-test e ANOVA. Os resultados indicam que, no geral, estas redes podem ser utilizadas como forma de analisar e estudar mapas de conectividade cerebral de forma mais precisa, pois são reprodutíveis entre controlos saudáveis em tempos diferentes, e conseguem detetar as diferenças de conectividade devidas a doença. Além disso, representam as ligações mais importantes da rede de conectividade neuronal, criando uma base para comparações fiáveis. A maior parte dos esqueletos-neuronais mostraram ser consistentes dentro de cada grupo de estudo, e apresentaram diferenças de conectividade entre controlos e pacientes. Neste caso, comparando sujeitos saudáveis com pacientes, os valores das componentes de FA e de MD destes esqueletos neuronais, e as suas alterações, vão de encontro com a literatura sobre a evolução do estado das ligações neuronais no desenvolvimento de demência. Quanto à análise longitudinal dos pacientes, concluímos que a NS representa uma medida mais fiável de análise das alterações ao longo do tempo da doença do que a GE. Finalmente, e ainda que algumas destes esqueletos-neuronais tenham mostrado melhor desempenho do que outros em diferentes abordagens, concluímos que o MST é a rede-esqueleto que dispõe dos melhores resultados utilizando o modelo de 90 e 200 ROIs, do cérebro todo, assim como usando o modelo de 250 ROIs aplicado só ao hemisfério esquerdo. Em suma, conclui-se que a utilização destes tipos de redes-esqueleto pode vir a tornar-se uma melhor alternativa em relação à utilização das redes neuronais originais do cérebro completo, visto que podem ser eficazmente aplicadas à análise de dados clínicos como forma fiável de detetar presença e evolução de doenças
    corecore