3,647 research outputs found
Mapping Topographic Structure in White Matter Pathways with Level Set Trees
Fiber tractography on diffusion imaging data offers rich potential for
describing white matter pathways in the human brain, but characterizing the
spatial organization in these large and complex data sets remains a challenge.
We show that level set trees---which provide a concise representation of the
hierarchical mode structure of probability density functions---offer a
statistically-principled framework for visualizing and analyzing topography in
fiber streamlines. Using diffusion spectrum imaging data collected on
neurologically healthy controls (N=30), we mapped white matter pathways from
the cortex into the striatum using a deterministic tractography algorithm that
estimates fiber bundles as dimensionless streamlines. Level set trees were used
for interactive exploration of patterns in the endpoint distributions of the
mapped fiber tracks and an efficient segmentation of the tracks that has
empirical accuracy comparable to standard nonparametric clustering methods. We
show that level set trees can also be generalized to model pseudo-density
functions in order to analyze a broader array of data types, including entire
fiber streamlines. Finally, resampling methods show the reliability of the
level set tree as a descriptive measure of topographic structure, illustrating
its potential as a statistical descriptor in brain imaging analysis. These
results highlight the broad applicability of level set trees for visualizing
and analyzing high-dimensional data like fiber tractography output
Sequence-based Multiscale Model (SeqMM) for High-throughput chromosome conformation capture (Hi-C) data analysis
In this paper, I introduce a Sequence-based Multiscale Model (SeqMM) for the
biomolecular data analysis. With the combination of spectral graph method, I
reveal the essential difference between the global scale models and local scale
ones in structure clustering, i.e., different optimization on Euclidean (or
spatial) distances and sequential (or genomic) distances. More specifically,
clusters from global scale models optimize Euclidean distance relations. Local
scale models, on the other hand, result in clusters that optimize the genomic
distance relations. For a biomolecular data, Euclidean distances and sequential
distances are two independent variables, which can never be optimized
simultaneously in data clustering. However, sequence scale in my SeqMM can work
as a tuning parameter that balances these two variables and deliver different
clusterings based on my purposes. Further, my SeqMM is used to explore the
hierarchical structures of chromosomes. I find that in global scale, the
Fiedler vector from my SeqMM bears a great similarity with the principal vector
from principal component analysis, and can be used to study genomic
compartments. In TAD analysis, I find that TADs evaluated from different scales
are not consistent and vary a lot. Particularly when the sequence scale is
small, the calculated TAD boundaries are dramatically different. Even for
regions with high contact frequencies, TAD regions show no obvious consistence.
However, when the scale value increases further, although TADs are still quite
different, TAD boundaries in these high contact frequency regions become more
and more consistent. Finally, I find that for a fixed local scale, my method
can deliver very robust TAD boundaries in different cluster numbers.Comment: 22 PAGES, 13 FIGURE
Structure in the 3D Galaxy Distribution: I. Methods and Example Results
Three methods for detecting and characterizing structure in point data, such
as that generated by redshift surveys, are described: classification using
self-organizing maps, segmentation using Bayesian blocks, and density
estimation using adaptive kernels. The first two methods are new, and allow
detection and characterization of structures of arbitrary shape and at a wide
range of spatial scales. These methods should elucidate not only clusters, but
also the more distributed, wide-ranging filaments and sheets, and further allow
the possibility of detecting and characterizing an even broader class of
shapes. The methods are demonstrated and compared in application to three data
sets: a carefully selected volume-limited sample from the Sloan Digital Sky
Survey redshift data, a similarly selected sample from the Millennium
Simulation, and a set of points independently drawn from a uniform probability
distribution -- a so-called Poisson distribution. We demonstrate a few of the
many ways in which these methods elucidate large scale structure in the
distribution of galaxies in the nearby Universe.Comment: Re-posted after referee corrections along with partially re-written
introduction. 80 pages, 31 figures, ApJ in Press. For full sized figures
please download from: http://astrophysics.arc.nasa.gov/~mway/lss1.pd
A Study on Automated Process for Extracting White Blood Cellular Data from Microscopic Digital Injured Skeletal Muscle Images
Skeletal muscle injury is one of the common injuries caused by high-intensity sports activities, military related works, and natural disasters. In order to discover better therapies, it is important to study muscle regeneration process. Muscle regeneration process tracking is the act of monitoring injured tissue section over time, noting white blood cell behavior and cell-fiber relations. A large number of microscopic images are taken for tracking muscle regeneration process over multiple time instances. Currently, manual approach is widely used to analyze a microscopic image of muscle cross section, which is time consuming, tedious and buggy.
Automation of this research methodology is essential to process a big amount of data. The objective of this thesis is to develop a framework to track the regeneration process automatically. The framework includes dynamic thresholding, morphological processing, and feature extraction.Based on the clinical assumptions, the threshold is calculated using standard deviation and mean of probable single cells. After thresholding, six parameters are calculated including average size, cell count, cell area density, cell count on the basis of size, the number of cytoplasmic and membrane cells as well as the average distance between cellular objects. All these parameters are estimated over the time, which helped to note the pattern of change in leukocytes (White blood cells) presence. Based on these results, a clear pattern of leukocyte movement is observed. Our future work includes deriving the mathematical equations using regression model on the data set of increased time points
Characterizing Atrial Fibrillation Substrate by Electrogram and Restitution Analysis
Vorhofflimmern ist die häufigste supraventrikuläre Arrhythmie in der klinischen Praxis. Es gibt Hinweise darauf, dass pathologisches Vorhofsubstrat (Fibrose) eine zentrale mechanistische Rolle bei der Aufrechterhaltung von Vorhofflimmern spielt. Die Behandlung von Vorhofflimmern erfolgt durch Ablation des fibrotischen Substrats. Der Nachweis eines solchen Substrats ist jedoch eine ungelöste Herausforderung, was durch die mangelnden positiven klinischen Ablationsergebnisse ersichtlich wird.
Daher ist das Hauptthema dieser Arbeit die Charakterisierung des atrialen Substrats. Die Bestimmung von Signalmerkmalen an Stellen mit fibrotischem Substrat erleichtert die Erkennung und anschließende Ablation solcher Areale in Zukunft. Darüber hinaus kann das Verständnis der Art und Weise, wie diese Areale das Vorhofflimmern aufrechterhalten, die positiven Ergebnisse von Ablationseingriffen verbessern. Schließlich kann Restitutionsinformation ein weiteres Instrument zur Substratcharakterisierung sein, das bei der Unterscheidung zwischen pathologischen und nicht-pathologischen Arealen helfen und somit das Ablationsergebnis weiter verbessert.
In dieser Arbeit werden zwei Ansätze zur Substratcharakterisierung vorgestellt:
Zunächst wurde eine Charakterisierung des Substrats mit Hilfe des intraatrialen Elektrogramms vorgenommen. Dazu wurde eine Auswahl spezifischer Merkmale des Elektrogramms an Positionen evaluiert, die eine Terminierung von Vorhofflimmern nach Ablation zur Folge hatten. Die Studie beinhaltete 21 Patienten, bei denen eine Ablation nach Pulmonalvenenisolation das klinisch persistierende Vorhofflimmern beendete. Der klinisch vorgeschlagene Grenzwert der Spannungsamplitude von <0:5 mV wurde genutzt, um die Positionen der Ablation zu definieren. Die Bereiche, in denen das Vorhofflimmern erfolgreich terminiert wurde, wiesen ausgeprägte Elektrogramm-Muster auf. Diese waren gekennzeichnet durch kurze lokale Zykluslängen, die fraktionierte Potentiale und Niederspannungspotentiale enthielten. Gleichzeitig zeigten sie eine lokale Konsistenz und deckten einen Großteil der lokalen Vorhofflimmer-Zykluslänge ab. Die meisten dieser Bereiche wiesen auch im Sinusrhythmus pathologisch verzögerte atriale Spätpotentiale und fraktionierte Elektrogramme auf.
Im zweiten Teil der Arbeit wurden Restitutionsdaten der lokalen Amplitude und der lokalen Leitungsgeschwindigkeit (CV) erfasst und genutzt, um daraus Informationen über das zugrunde liegende Substrat abzuleiten. Die Daten zur Restitution wurden von 22 Patienten mit Vorhofflimmern aus zwei Kliniken unter Verwendung eines S1S2-Protokolls mit Stimulationsintervallen von 180 ms bis 500 ms gewonnen. Um Restitutionsdaten der Patientengruppe zu erhalten, musste ein automatisierter Algorithmus entwickelt werden, der in der Lage ist, große Mengen an Stimulationsprotokolldaten zu lesen, zu segmentieren und auszuwerten. Dieser Algorithmus wurde in der vorliegenden Arbeit entwickelt und CVAR-Seg genannt. Der CVAR-Seg Algorithmus bietet eine rauschresistente Signalsegmentierung, die mit extremen Rauschpegeln getestet wurde, die weit über dem erwarteten klinischen Pegel lagen. CVAR-Seg wurde unter einer Open-Source-Lizenz für die Allgemeinheit bereitgestellt. Es ermöglicht aufgrund seines modularen Aufbaus den einfachen Austausch einzelner Verfahrensschritte durch alternative Methoden entsprechend den Bedürfnissen des Anwenders. Darüber hinaus wurde im Rahmen dieser Studie eine neuartige Methode, die sogenannte inverse Doppelellipsenmethode, zur Bestimmung der lokalen CV etabliert. Diese Methode schätzt die CV, die Faserorientierung und den Anisotropiefaktor bei beliebiger Elektrodenanordnung. In Simulationen reproduzierte die Doppelellipsenmethode die vorherrschende CV, Faserorientierung und Anisotropie genauer und robuster als die aktuell gängigste Methode. Zusätzlich erwies sich diese Methode als echtzeittauglich und könnte daher in klinischen Elektrophysiologiesystemen eingesetzt werden. Die Doppelellipsenmethode würde durch die lokalisierte Vermessung des Vorhofsubstrats ermöglichen während eines Kartierungsverfahrens gleichzeitig eine CV-Karte, eine Anisotropieverhältniskarte und eine Faserkarte zu erstellen. Die Restitutionsinformationen der Patientenkohorte wurden mit der CVARSeg-Pipeline und der inversen Doppelellipsenmethode ausgewertet, um Amplituden- und CV-Restitutionskurven zu erhalten. Zur Anpassung der Restitutionskurven wurde eine monoexponentielle Funktion verwendet. Die Parameter der angepassten Funktion, die die Restitutionskurven abbilden, wurden verwendet, um Unterschiede in den Restitutionseigenschaften zwischen pathologischem und nicht-pathologischem Substrat zu erkennen. Das Ergebnis zeigte, dass klinisch definierte pathologische Bereiche durch eine reduzierte Amplitudenasymptote und einen steilen Kurvenabfall bei erhöhter Stimulationsrate gekennzeichnet waren. CV-Kurven zeigten eine reduzierte Asymptote und eine große Variation im Parameter der den Kurvenabfall beschreibt.
Darüber hinaus wurden die Restitutionsunterschiede innerhalb des Vorhofs an der posterioren und anterioren Wand verglichen, da die Literatur keine eindeutigen Ergebnisse lieferte. In dieser Arbeit wurde nachgewiesen, dass die posteriore Vorhofwand Amplituden- und CV-Restitutionskurven mit höherer Asymptote und moderaterer Krümmung verglichen mit der anterioren Vorhofwand aufweist.
Um über den empirisch beschriebenen manuellen Schwellenwert hinauszugehen, wurde der Parameterraum, der von den Anpassungsparametern der Amplituden- und CV-Restitutionskurven aufgespannt wird, nach natürlich vorkommenden Clustern durchsucht. Obgleich Cluster vorhanden waren, deutete ihre unzureichende Trennung auf einen kontinuierlichen, sich mit dem Schweregrad der Substratpathologie verändernden Verlauf der Amplituden- und CV-Kurven hin.
Schließlich wurde eine einfachere und schnellere Methode zur Erfassung von Restitutionsdaten vorgestellt, die einen vergleichbaren Informationsgehalt auf der Grundlage der maximalen Steigung anstelle einer vollständigen Restitutionskurve liefert.
In dieser Arbeit werden zwei neue Methoden vorgestellt, der CVAR-Seg-Algorithmus und die inverse Doppelellipsenmethode, die eine Auswertung von S1S2 Stimulationsprotokollen und die Bestimmung der lokalen Leitungsgeschwindigkeit beschleunigen und verbessern. Darüber hinaus werden in dieser Arbeit Merkmale von pathologischem Gewebe definiert, die zur Identifizierung von Arrhythmiequellen beitragen. Somit trägt diese Arbeit dazu bei, die Therapie von Vorhofflimmern in Zukunft zu verbessern
Improving the Tractography Pipeline: on Evaluation, Segmentation, and Visualization
Recent advances in tractography allow for connectomes to be constructed in vivo. These have applications for example in brain tumor surgery and understanding of brain development and diseases. The large size of the data produced by these methods lead to a variety problems, including how to evaluate tractography outputs, development of faster processing algorithms for tractography and clustering, and the development of advanced visualization methods for verification and exploration. This thesis presents several advances in these fields.
First, an evaluation is presented for the robustness to noise of multiple commonly used tractography algorithms. It employs a Monte–Carlo simulation of measurement noise on a constructed ground truth dataset. As a result of this evaluation, evidence for obustness of global tractography is found, and algorithmic sources of uncertainty are identified.
The second contribution is a fast clustering algorithm for tractography data based on k–means and vector fields for representing the flow of each cluster. It is demonstrated that this algorithm can handle large tractography datasets due to its linear time and memory complexity, and that it can effectively integrate interrupted fibers that would be rejected as outliers by other algorithms.
Furthermore, a visualization for the exploration of structural connectomes is presented. It uses illustrative rendering techniques for efficient presentation of connecting fiber bundles in context in anatomical space. Visual hints are employed to improve the perception of spatial relations.
Finally, a visualization method with application to exploration and verification of probabilistic tractography is presented, which improves on the previously presented Fiber Stippling technique. It is demonstrated that the method is able to show multiple overlapping tracts in context, and correctly present crossing fiber configurations
- …