3,647 research outputs found

    Mapping Topographic Structure in White Matter Pathways with Level Set Trees

    Full text link
    Fiber tractography on diffusion imaging data offers rich potential for describing white matter pathways in the human brain, but characterizing the spatial organization in these large and complex data sets remains a challenge. We show that level set trees---which provide a concise representation of the hierarchical mode structure of probability density functions---offer a statistically-principled framework for visualizing and analyzing topography in fiber streamlines. Using diffusion spectrum imaging data collected on neurologically healthy controls (N=30), we mapped white matter pathways from the cortex into the striatum using a deterministic tractography algorithm that estimates fiber bundles as dimensionless streamlines. Level set trees were used for interactive exploration of patterns in the endpoint distributions of the mapped fiber tracks and an efficient segmentation of the tracks that has empirical accuracy comparable to standard nonparametric clustering methods. We show that level set trees can also be generalized to model pseudo-density functions in order to analyze a broader array of data types, including entire fiber streamlines. Finally, resampling methods show the reliability of the level set tree as a descriptive measure of topographic structure, illustrating its potential as a statistical descriptor in brain imaging analysis. These results highlight the broad applicability of level set trees for visualizing and analyzing high-dimensional data like fiber tractography output

    Sequence-based Multiscale Model (SeqMM) for High-throughput chromosome conformation capture (Hi-C) data analysis

    Full text link
    In this paper, I introduce a Sequence-based Multiscale Model (SeqMM) for the biomolecular data analysis. With the combination of spectral graph method, I reveal the essential difference between the global scale models and local scale ones in structure clustering, i.e., different optimization on Euclidean (or spatial) distances and sequential (or genomic) distances. More specifically, clusters from global scale models optimize Euclidean distance relations. Local scale models, on the other hand, result in clusters that optimize the genomic distance relations. For a biomolecular data, Euclidean distances and sequential distances are two independent variables, which can never be optimized simultaneously in data clustering. However, sequence scale in my SeqMM can work as a tuning parameter that balances these two variables and deliver different clusterings based on my purposes. Further, my SeqMM is used to explore the hierarchical structures of chromosomes. I find that in global scale, the Fiedler vector from my SeqMM bears a great similarity with the principal vector from principal component analysis, and can be used to study genomic compartments. In TAD analysis, I find that TADs evaluated from different scales are not consistent and vary a lot. Particularly when the sequence scale is small, the calculated TAD boundaries are dramatically different. Even for regions with high contact frequencies, TAD regions show no obvious consistence. However, when the scale value increases further, although TADs are still quite different, TAD boundaries in these high contact frequency regions become more and more consistent. Finally, I find that for a fixed local scale, my method can deliver very robust TAD boundaries in different cluster numbers.Comment: 22 PAGES, 13 FIGURE

    Structure in the 3D Galaxy Distribution: I. Methods and Example Results

    Full text link
    Three methods for detecting and characterizing structure in point data, such as that generated by redshift surveys, are described: classification using self-organizing maps, segmentation using Bayesian blocks, and density estimation using adaptive kernels. The first two methods are new, and allow detection and characterization of structures of arbitrary shape and at a wide range of spatial scales. These methods should elucidate not only clusters, but also the more distributed, wide-ranging filaments and sheets, and further allow the possibility of detecting and characterizing an even broader class of shapes. The methods are demonstrated and compared in application to three data sets: a carefully selected volume-limited sample from the Sloan Digital Sky Survey redshift data, a similarly selected sample from the Millennium Simulation, and a set of points independently drawn from a uniform probability distribution -- a so-called Poisson distribution. We demonstrate a few of the many ways in which these methods elucidate large scale structure in the distribution of galaxies in the nearby Universe.Comment: Re-posted after referee corrections along with partially re-written introduction. 80 pages, 31 figures, ApJ in Press. For full sized figures please download from: http://astrophysics.arc.nasa.gov/~mway/lss1.pd

    A Study on Automated Process for Extracting White Blood Cellular Data from Microscopic Digital Injured Skeletal Muscle Images

    Full text link
    Skeletal muscle injury is one of the common injuries caused by high-intensity sports activities, military related works, and natural disasters. In order to discover better therapies, it is important to study muscle regeneration process. Muscle regeneration process tracking is the act of monitoring injured tissue section over time, noting white blood cell behavior and cell-fiber relations. A large number of microscopic images are taken for tracking muscle regeneration process over multiple time instances. Currently, manual approach is widely used to analyze a microscopic image of muscle cross section, which is time consuming, tedious and buggy. Automation of this research methodology is essential to process a big amount of data. The objective of this thesis is to develop a framework to track the regeneration process automatically. The framework includes dynamic thresholding, morphological processing, and feature extraction.Based on the clinical assumptions, the threshold is calculated using standard deviation and mean of probable single cells. After thresholding, six parameters are calculated including average size, cell count, cell area density, cell count on the basis of size, the number of cytoplasmic and membrane cells as well as the average distance between cellular objects. All these parameters are estimated over the time, which helped to note the pattern of change in leukocytes (White blood cells) presence. Based on these results, a clear pattern of leukocyte movement is observed. Our future work includes deriving the mathematical equations using regression model on the data set of increased time points

    Characterizing Atrial Fibrillation Substrate by Electrogram and Restitution Analysis

    Get PDF
    Vorhofflimmern ist die häufigste supraventrikuläre Arrhythmie in der klinischen Praxis. Es gibt Hinweise darauf, dass pathologisches Vorhofsubstrat (Fibrose) eine zentrale mechanistische Rolle bei der Aufrechterhaltung von Vorhofflimmern spielt. Die Behandlung von Vorhofflimmern erfolgt durch Ablation des fibrotischen Substrats. Der Nachweis eines solchen Substrats ist jedoch eine ungelöste Herausforderung, was durch die mangelnden positiven klinischen Ablationsergebnisse ersichtlich wird. Daher ist das Hauptthema dieser Arbeit die Charakterisierung des atrialen Substrats. Die Bestimmung von Signalmerkmalen an Stellen mit fibrotischem Substrat erleichtert die Erkennung und anschließende Ablation solcher Areale in Zukunft. Darüber hinaus kann das Verständnis der Art und Weise, wie diese Areale das Vorhofflimmern aufrechterhalten, die positiven Ergebnisse von Ablationseingriffen verbessern. Schließlich kann Restitutionsinformation ein weiteres Instrument zur Substratcharakterisierung sein, das bei der Unterscheidung zwischen pathologischen und nicht-pathologischen Arealen helfen und somit das Ablationsergebnis weiter verbessert. In dieser Arbeit werden zwei Ansätze zur Substratcharakterisierung vorgestellt: Zunächst wurde eine Charakterisierung des Substrats mit Hilfe des intraatrialen Elektrogramms vorgenommen. Dazu wurde eine Auswahl spezifischer Merkmale des Elektrogramms an Positionen evaluiert, die eine Terminierung von Vorhofflimmern nach Ablation zur Folge hatten. Die Studie beinhaltete 21 Patienten, bei denen eine Ablation nach Pulmonalvenenisolation das klinisch persistierende Vorhofflimmern beendete. Der klinisch vorgeschlagene Grenzwert der Spannungsamplitude von <0:5 mV wurde genutzt, um die Positionen der Ablation zu definieren. Die Bereiche, in denen das Vorhofflimmern erfolgreich terminiert wurde, wiesen ausgeprägte Elektrogramm-Muster auf. Diese waren gekennzeichnet durch kurze lokale Zykluslängen, die fraktionierte Potentiale und Niederspannungspotentiale enthielten. Gleichzeitig zeigten sie eine lokale Konsistenz und deckten einen Großteil der lokalen Vorhofflimmer-Zykluslänge ab. Die meisten dieser Bereiche wiesen auch im Sinusrhythmus pathologisch verzögerte atriale Spätpotentiale und fraktionierte Elektrogramme auf. Im zweiten Teil der Arbeit wurden Restitutionsdaten der lokalen Amplitude und der lokalen Leitungsgeschwindigkeit (CV) erfasst und genutzt, um daraus Informationen über das zugrunde liegende Substrat abzuleiten. Die Daten zur Restitution wurden von 22 Patienten mit Vorhofflimmern aus zwei Kliniken unter Verwendung eines S1S2-Protokolls mit Stimulationsintervallen von 180 ms bis 500 ms gewonnen. Um Restitutionsdaten der Patientengruppe zu erhalten, musste ein automatisierter Algorithmus entwickelt werden, der in der Lage ist, große Mengen an Stimulationsprotokolldaten zu lesen, zu segmentieren und auszuwerten. Dieser Algorithmus wurde in der vorliegenden Arbeit entwickelt und CVAR-Seg genannt. Der CVAR-Seg Algorithmus bietet eine rauschresistente Signalsegmentierung, die mit extremen Rauschpegeln getestet wurde, die weit über dem erwarteten klinischen Pegel lagen. CVAR-Seg wurde unter einer Open-Source-Lizenz für die Allgemeinheit bereitgestellt. Es ermöglicht aufgrund seines modularen Aufbaus den einfachen Austausch einzelner Verfahrensschritte durch alternative Methoden entsprechend den Bedürfnissen des Anwenders. Darüber hinaus wurde im Rahmen dieser Studie eine neuartige Methode, die sogenannte inverse Doppelellipsenmethode, zur Bestimmung der lokalen CV etabliert. Diese Methode schätzt die CV, die Faserorientierung und den Anisotropiefaktor bei beliebiger Elektrodenanordnung. In Simulationen reproduzierte die Doppelellipsenmethode die vorherrschende CV, Faserorientierung und Anisotropie genauer und robuster als die aktuell gängigste Methode. Zusätzlich erwies sich diese Methode als echtzeittauglich und könnte daher in klinischen Elektrophysiologiesystemen eingesetzt werden. Die Doppelellipsenmethode würde durch die lokalisierte Vermessung des Vorhofsubstrats ermöglichen während eines Kartierungsverfahrens gleichzeitig eine CV-Karte, eine Anisotropieverhältniskarte und eine Faserkarte zu erstellen. Die Restitutionsinformationen der Patientenkohorte wurden mit der CVARSeg-Pipeline und der inversen Doppelellipsenmethode ausgewertet, um Amplituden- und CV-Restitutionskurven zu erhalten. Zur Anpassung der Restitutionskurven wurde eine monoexponentielle Funktion verwendet. Die Parameter der angepassten Funktion, die die Restitutionskurven abbilden, wurden verwendet, um Unterschiede in den Restitutionseigenschaften zwischen pathologischem und nicht-pathologischem Substrat zu erkennen. Das Ergebnis zeigte, dass klinisch definierte pathologische Bereiche durch eine reduzierte Amplitudenasymptote und einen steilen Kurvenabfall bei erhöhter Stimulationsrate gekennzeichnet waren. CV-Kurven zeigten eine reduzierte Asymptote und eine große Variation im Parameter der den Kurvenabfall beschreibt. Darüber hinaus wurden die Restitutionsunterschiede innerhalb des Vorhofs an der posterioren und anterioren Wand verglichen, da die Literatur keine eindeutigen Ergebnisse lieferte. In dieser Arbeit wurde nachgewiesen, dass die posteriore Vorhofwand Amplituden- und CV-Restitutionskurven mit höherer Asymptote und moderaterer Krümmung verglichen mit der anterioren Vorhofwand aufweist. Um über den empirisch beschriebenen manuellen Schwellenwert hinauszugehen, wurde der Parameterraum, der von den Anpassungsparametern der Amplituden- und CV-Restitutionskurven aufgespannt wird, nach natürlich vorkommenden Clustern durchsucht. Obgleich Cluster vorhanden waren, deutete ihre unzureichende Trennung auf einen kontinuierlichen, sich mit dem Schweregrad der Substratpathologie verändernden Verlauf der Amplituden- und CV-Kurven hin. Schließlich wurde eine einfachere und schnellere Methode zur Erfassung von Restitutionsdaten vorgestellt, die einen vergleichbaren Informationsgehalt auf der Grundlage der maximalen Steigung anstelle einer vollständigen Restitutionskurve liefert. In dieser Arbeit werden zwei neue Methoden vorgestellt, der CVAR-Seg-Algorithmus und die inverse Doppelellipsenmethode, die eine Auswertung von S1S2 Stimulationsprotokollen und die Bestimmung der lokalen Leitungsgeschwindigkeit beschleunigen und verbessern. Darüber hinaus werden in dieser Arbeit Merkmale von pathologischem Gewebe definiert, die zur Identifizierung von Arrhythmiequellen beitragen. Somit trägt diese Arbeit dazu bei, die Therapie von Vorhofflimmern in Zukunft zu verbessern

    Improving the Tractography Pipeline: on Evaluation, Segmentation, and Visualization

    Get PDF
    Recent advances in tractography allow for connectomes to be constructed in vivo. These have applications for example in brain tumor surgery and understanding of brain development and diseases. The large size of the data produced by these methods lead to a variety problems, including how to evaluate tractography outputs, development of faster processing algorithms for tractography and clustering, and the development of advanced visualization methods for verification and exploration. This thesis presents several advances in these fields. First, an evaluation is presented for the robustness to noise of multiple commonly used tractography algorithms. It employs a Monte–Carlo simulation of measurement noise on a constructed ground truth dataset. As a result of this evaluation, evidence for obustness of global tractography is found, and algorithmic sources of uncertainty are identified. The second contribution is a fast clustering algorithm for tractography data based on k–means and vector fields for representing the flow of each cluster. It is demonstrated that this algorithm can handle large tractography datasets due to its linear time and memory complexity, and that it can effectively integrate interrupted fibers that would be rejected as outliers by other algorithms. Furthermore, a visualization for the exploration of structural connectomes is presented. It uses illustrative rendering techniques for efficient presentation of connecting fiber bundles in context in anatomical space. Visual hints are employed to improve the perception of spatial relations. Finally, a visualization method with application to exploration and verification of probabilistic tractography is presented, which improves on the previously presented Fiber Stippling technique. It is demonstrated that the method is able to show multiple overlapping tracts in context, and correctly present crossing fiber configurations
    corecore