40 research outputs found

    Processing of diffusion MR images of the brain: from crossing fibres to distributed tractography

    Get PDF
    Diffusion-weighted (DW) magnetic resonance imaging allows the quantification of water diffusion within tissue. Due to the hindrance of water molecules by the various tissue compartments, probing for the diffusive properties of a region can provide information on the underlying structure. This is particularly useful for the human brain, whose anatomy is complex. Diffusion imaging provides currently the only tool to study the brain connectivity and organization non-invasively and in-vivo, through a group of methods, commonly referred to as tractography methods. This thesis is concerned with brain anatomical connectivity and tractography. The goal is to elucidate problems with existing approaches used to process DW images and propose solutions and methods through new frameworks. These concern data from two popular DW imaging protocols, diffusion tensor imaging (DTI) and high angular resolution diffusion imaging (HARDI), or Q-ball imaging in particular. One of the problems tackled is resolving crossing fibre configurations, a major concern in DW imaging, using data that can be routinely acquired in a clinical setting. The physical constraint of spatial continuity of the diffusion environment is imposed throughout the brain volume, using a multi-tensor model and a regularization method. The new approach is shown to improve tractography results through crossing regions. Quantitative tractography algorithms are also proposed that, apart from reconstructing the white matter tracts, assign relative indices of anatomical connectivity to all regions. A fuzzy algorithm is presented for assessing orientational coherence of neuronal tracts, reflecting the fuzzy nature of medical images. As shown for different tracts, where a-priori anatomical knowledge exists, regions that are coherently connected and possibly belong to the same tract can be differentiated from the background. In a different framework, elements of graph theory are used to develop a new tractography algorithm that can utilize information from multiple image modalities to assess brain connectivity. Both algorithms inherently consider crossing fibre information and are shown to solve problems that affect existing methods

    Adaptive processing of thin structures to augment segmentation of dual-channel structural MRI of the human brain

    Get PDF
    This thesis presents a method for the segmentation of dual-channel structural magnetic resonance imaging (MRI) volumes of the human brain into four tissue classes. The state-of-the-art FSL FAST segmentation software (Zhang et al., 2001) is in widespread clinical use, and so it is considered a benchmark. A significant proportion of FAST’s errors has been shown to be localised to cortical sulci and blood vessels; this issue has driven the developments in this thesis, rather than any particular clinical demand. The original theme lies in preserving and even restoring these thin structures, poorly resolved in typical clinical MRI. Bright plate-shaped sulci and dark tubular vessels are best contrasted from the other tissues using the T2- and PD-weighted data, respectively. A contrasting tube detector algorithm (based on Frangi et al., 1998) was adapted to detect both structures, with smoothing (based on Westin and Knutsson, 2006) of an intermediate tensor representation to ensure smoothness and fuller coverage of the maps. The segmentation strategy required the MRI volumes to be upscaled to an artificial high resolution where a small partial volume label set would be valid and the segmentation process would be simplified. A resolution enhancement process (based on Salvado et al., 2006) was significantly modified to smooth homogeneous regions and sharpen their boundaries in dual-channel data. In addition, it was able to preserve the mapped thin structures’ intensities or restore them to pure tissue values. Finally, the segmentation phase employed a relaxation-based labelling optimisation process (based on Li et al., 1997) to improve accuracy, rather than more efficient greedy methods which are typically used. The thin structure location prior maps and the resolution-enhanced data also helped improve the labelling accuracy, particularly around sulci and vessels. Testing was performed on the aged LBC1936 clinical dataset and on younger brain volumes acquired at the SHEFC Brain Imaging Centre (Western General Hospital, Edinburgh, UK), as well as the BrainWeb phantom. Overall, the proposed methods rivalled and often improved segmentation accuracy compared to FAST, where the ground truth was produced by a radiologist using software designed for this project. The performance in pathological and atrophied brain volumes, and the differences with the original segmentation algorithm on which it was based (van Leemput et al., 2003), were also examined. Among the suggestions for future development include a soft labelling consensus formation framework to mitigate rater bias in the ground truth, and contour-based models of the brain parenchyma to provide additional structural constraints

    Signal processing in diffusion MRI : high quality signal reconstruction

    Get PDF
    Magnetic Resonance Imaging (MRI) is a medical imaging technique which is especially sensitive to different soft tissues, producing a good contrast between them. It allows for in vivo visualisation of internal structures in detail and became an indispensable tool in diagnosing and monitoring the brain related diseases and pathologies. Amongst others, MRI can be used to measure random incoherent motion of water molecules, which in turn allows to infer structural information. One of the main challenges in processing and analysing four dimensional diffusion MRI images is low signal quality. To improve the signal quality, either denoising algorithm or angular and spatial regularisations are utilised. Regularisation method based on Laplace--Beltrami smoothing operator was successfully applied to diffusion signal. In this thesis, a new regularisation strength selection scheme for diffusion signal regularisation is introduced. A mathematical model of diffusion signal is used in Monte--Carlo simulations, and a regularisation strength that optimally reconstructs the diffusion signal is sought. The regularisation values found in this research show a different trend than the currently used L-curve analysis, and further improve reconstruction accuracy. Additionally, as an alternative to regularisation methods a backward elimination regression for spherical harmonics is proposed. Instead of using the regularisation term as a low-pass filter, the statistical t-test is classifying regression terms into reliable and corrupted. Four algorithms that use this information are further introduced. As the result, a selective filtering is constructed that retains the angular sharpness of the signal, while at the same time reducing corruptive effect of measurement noise. Finally, a statistical approach for estimating diffusion signal is investigated. Based on the physical properties of water diffusion a prior knowledge for the diffusion signal is constructed. The spherical harmonic transform is then formulated as a Bayesian regression problem. Diffusion signal reconstructed with the addition of such prior knowledge is accurate, noise resilient, and of high quality

    Influence of Tissue Conductivity Inhomogeneity and Anisotropy on EEG/MEG based Source Localization in the Human Brain

    Get PDF
    The inverse problem in Electro- and Magneto-EncephaloGraphy (EEG/MEG) aims at reconstructing the underlying current distribution in the human brain using potential differences and/or magnetic fluxes that are measured non-invasively directly, or at a close distance, from the head surface. The solution requires repeated computation of the forward problem, i.e., the simulation of EEG and MEG fields for a given dipolar source in the brain using a volume-conduction model of the head. The associated differential equations are derived from the Maxwell equations. Not only do various head tissues exhibit different conductivities, some of them are also anisotropic conductors as, e.g., skull and brain white matter. To our knowledge, previous work has not extensively investigated the impact of modeling tissue anisotropy on source reconstruction. Currently, there are no readily available methods that allow direct conductivity measurements. Furthermore, there is still a lack of sufficiently powerful software packages that would yield significant reduction of the computation time involved in such complex models hence satisfying the time-restrictions for the solution of the inverse problem. In this dissertation, techniques of multimodal Magnetic Resonance Imaging (MRI) are presented in order to generate high-resolution realistically shaped anisotropic volume conductor models. One focus is the presentation of an improved segmentation of the skull by means of a bimodal T1/PD-MRI approach. The eigenvectors of the conductivity tensors in anisotropic white matter are determined using whole head Diffusion-Tensor-MRI. The Finite Element (FE) method in combination with a parallel algebraic multigrid solver yields a highly efficient solution of the forward problem. After giving an overview of state-of-the-art inverse methods, new regularization concepts are presented. Next, the sensitivity of inverse methods to tissue anisotropy is tested. The results show that skull anisotropy affects significantly EEG source reconstruction whereas white matter anisotropy affects both EEG and MEG source reconstructions. Therefore, high-resolution FE forward modeling is crucial for an accurate solution of the inverse problem in EEG and MEG.Motivation und Einordnung: Seit nun fast drei Jahrzehnten werden im Bereich der Kognitionswissenschaften und in klinischer Forschung und Routine die Quellen elektrischer Aktivitaet im menschlichen Gehirn anhand ihrer ueber das Elektroenzephalogramm (EEG) an der Kopfoberflaeche gemessenen Potentialverteilung bzw. ihres ueber das Magnetoenzephalogramm (MEG) in einigen Zentimetern Entfernung davon gemessenen magnetischen Flusses rekonstruiert. Im Vergleich zu anderen funktionellen Bildgebungsmethoden wie z.B. die Positronen-Emissions-Tomographie (PET) oder die funktionelle Magnetresonanztomographie (fMRT) hat die EEG/MEG-Quellrekonstruktion den Vorteil einer sehr hohen zeitlichen Aufloesung. Die gemessene Aktivitaet ist das Resultat von Ionenbewegungen in aktivierten kortikalen Regionen des Gehirns, den sog. Primaerstroemen. Schon im Jahr 1949 wurden erstmals die Primaerstroeme ueber Stromdipole mathematisch modelliert. Der Primaerstrom erzeugt R\'uckstr\'ome im leitf\'ahigen Gewebe des Kopfes, die sog. {\em Sekund\'arstr\'ome}. Die Rekonstruktion der Dipolquellen wird das {\em EEG/MEG inverse Problem} genannt. Dessen L\'osung erfordert die wiederholte Berechnung des {\em Vorw\'arts\-problems}, d.h. der Simulation der EEG/MEG-Feldverteilung f\'ur eine gegebene Dipolquelle im Gehirn. Ein erstes Anwendungsgebiet f\/indet sich in der Diagnose und Therapie von pharma-resistenten Epilepsien, von denen ca. 0,25\% der Weltbev\'olkerung betroffen sind und f\'ur die sich in den letzten Jahrzehnten eine systematische chirurgische Behandlung ent\-wickelt hat. Voraussetzung f\'ur einen die restlichen Gehirnregionen schonenden chirurgischen Eingrif\/f ist die Kenntnis der Lage und Ausdehnung der epileptischen Zentren. Bisher wurden diese Charakteristika in den Patienten stark belastenden invasiven Untersuchungen wie zum Beispiel Subdural- oder Tiefen-Elektroden gewonnen. Die bioelektrischen Signale von Epilepsiekranken weisen zwischen den Anfallsereignissen sog. interiktale Spikes auf. Die nicht-invasive Messung des EEG/MEG dieser interiktalen Spikes und die anschlie{\ss}ende Berechnung des epileptischen Zentrums belastet den Patienten nicht. Ein weiteres Anwendungsfeld ist die pr\'aoperative Ermittlung der Lage wichtiger funk\-tio\-nell-zu\-sam\-men\-h\'angender Zentren im Gehirn, z.B.~des prim\'ar-mo\-to\-ri\-schen, des prim\'ar-au\-di\-to\-rischen oder prim\'ar-somatosensorischen Cortex. Bei Operationen in diesen Bereichen (z.B.~Tumoroperationen) k\'onnten L\'ahmungen, H\'or- und Sensibilit\'atsst\'orungen vermieden werden. Dazu werden \'uber akustische oder sensorische Reize charakteristische Signale evoziert und \'uber Summationstechniken sichtbar gemacht. Durch das L\'osen des inversen Problems wird versucht, die zugrunde liegende Quellstruktur zu ermitteln. Neben den aufgef\'uhrten klinischen Anwendungen ergeben sich auch zahlreiche Anwendungsfelder in der Kognitionswissenschaft. Von Interesse sind z.B.~funktionelle Zusammenh\'ange im Gehirn und die Aufdeckung der aktivierten Areale w\'ahrend der Verarbeitung eines Reizes, wie z.B. der Sprachverarbeitung im Gehirn. Die L\'osung des Vorw\'artsproblems impliziert die Mo\-del\-lierung des Kopfes als Volumenleiter. Es ist bekannt, dass in makroskopischer Hinsicht Gewebe wie die Kopfhaut, der Sch\'adel, die Zerebrospinalfl\'ussigkeit (engl.: CSF) und die Hirngewebe graue und wei{\ss}e Substanz (engl.: GM und WM) verschiedene Leitf\'ahigkeiten besitzen. Der menschliche Sch\'adel ist aus drei Schichten aufgebaut, eine relativ gut leitf\'ahige spongi\'ose Schicht wird von zwei stark isolierenden Schichten, den \'au{\ss}eren und inneren Kompakta, eingeschlossen. In radialer Richtung durch den Sch\'adel handelt es sich also um eine Reihenschaltung von hohem, niedrigem und hohem Widerstand, wohingegen in den tangentialen Richtungen die Leiter parallel geschaltet sind. Als Ganzes gesehen besitzt der Sch\'adel demnach eine richtungsabh\'angige oder {\em anisotrope} Leitf\'ahigkeit mit einem gemessenen Verh\'altnis von bis zu 1 zu 10. F\'ur die faserige WM wurde ebenfalls eine Anisotropie mit einem \'ahnlichen Verh\'altnis (senkrecht zu parallel zu den Fasern) nachgewiesen. Leider existiert bis heute keine direkte Methode, die Leitf\'ahigkeit der WM nicht-invasiv in gen\'ugender Aufl\'osung zu ermittelt. Seit einigen Jahren werden aller\-dings Formalismen diskutiert, die den gesuchten Leitf\'ahigkeitstensor in Bezug setzen zum Wasserdiffusionstensor, der in WM nicht-invasiv \'uber die Diffusionstensor-MRT (DT-MRT) gemessen werden kann. Nat\'urlich wird keine fundamentale Beziehung zwischen der freien Beweglichkeit von Ionen und Wasserteilchen angenommen, sondern lediglich, dass die eingeschr\'ankte Mobilit\'at \'uber die Fasergeometrie der WM in Beziehung steht. Heutzutage werden verschiedene Ans\'atze f\'ur die L\'osung des Vor\-w\'arts\-pro\-blems genutzt und mit steigender Genauigkeit der Modellierung des Kopfvolumenleiters erh\'oht sich die Komplexit\'at der numerischen Feldberechnungen. Einfache Modelle, die immer noch am h\'aufigsten Gebrauchten, beschreiben den Kopf als Mehrschalenkugel-Leiter mit \'ublicherweise drei Schichten, die die Kopfhaut, den Sch\'adel und das Gehirn repr\'asentieren. Um besser auf die Geometrie der drei modellierten Oberfl\'achen einzugehen, wurden sog. BE-Modelle (von engl.: Boundary Element) entwickelt, die sich f\'ur isotrop leitf\'ahige Schichten eignen. Um sowohl auf realistische Geometrien als auch auf Anisotropien und Inhomogenit\'aten eingehen zu k\'onnen, wurden Finite-Elemente (FE) Modelle des Kopfes ent\-wi\-ckelt. Zwei wichtige Fragen stellen sich nun: Ist eine exakte Modellierung der vorgestellten Gewebeleitf\'ahigkeits-Anisotropien n\'otig und in welchen F\'allen reichen weniger berechnungsaufwendige Verfahren aus? Wie k\'onnen komplexe FE-Vorw\'artsmodelle hinreichend beschleunigt werden, um den Zeitrestriktionen f\'ur inverse Quellrekonstruktionen in den Anwendungen zu gen\'ugen? Es existieren zahlreiche Arbeiten, die, basierend auf FE-Modellen des Kopfes, gezeigt haben, dass \'Offnungen im Sch\'adel wie z.B. diejenige, durch die der optische Nerv eintritt oder das okzipitale Loch des Hirnstamms, oder Inhomogenit\'aten wie L\'asionen im Gehirn oder die Sutura des Sch\'adels (insbesondere bei Kleinkindern, wo die Sutura noch nicht geschlossen sind) einen nicht vernachl\'assigbaren Einfluss auf das EEG/MEG-Vorw\'arts\-problem haben. Eine erste Studie bzgl. der Sensitivit\'at zweier ausgew\'ahlter EEG-Rekonstruktionsverfahren wies teils gro{\ss}e Fehler im Falle der Nichtbeachtung von Sch\'adel-Anisotropie nach. Insbesondere f\'ur diverse klinische Anwendungen wird der sog. {\em single dipole fit} im kontinuierlichen Parameterraum verwendet. Aufgrund des hohen Berechnungsaufwands wurden solche Verfahren bisher noch nicht auf ihre Sensitivit\'at auf Sch\'adel\-anisotropie getestet. Obwohl bereits eine Studie einen nicht-vernachl\'assigbaren Einfluss auf die EEG/MEG-Vorw\'artssimulation zeigte, gibt es noch keinerlei Ergebnis zur Aus\-wir\-kung der WM-Anisotropie auf inverse Rekonstruktionsverfahren. Die L\'osung des inversen Problems ist im allgemeinen nicht eindeutig. Viele Dipol-Quell\-konfi\-gura\-tionen k\'onnen ein und dieselbe EEG und MEG Feldverteilung erzeugen. Zus\'atz\-liche Annahmen \'uber die Quellen sind dementsprechend unerl\'asslich. Bei den sog. {\em fokalen Rekonstruktionsmethoden} wird die Annahme gemacht, dass einige wenige Dipole den gemessenen Daten zugrunde liegen. Diese Dipole (Anzahl, Ort, Richtung, St\'arke) sollen innerhalb des anatomisch und physiologisch sinnvollen Suchgebiets so ermittelt werden, dass die Messwerte m\'oglichst genau erkl\'art werden, gleichzeitig aber das Rauschen keinen zu starken Einfluss auf die L\'osung nimmt und die Algorithmen stabil in Bezug auf eine \'Ubersch\'atzung der Anzahl aktiver Quellen bleiben. Bei diesen, wie auch bei den sog. {\em Stromdichterekonstruktionsverfahren}, wird sich das Konzept der Regularisierung als eine wichtige Methode herausstellen. Wissenschaftliche Ergebnisse der Dissertation: Die Ergebnisse der vorgelegten Dissertation k\'onnen in vier Teilbereiche aufgeteilt werden. Im ersten Teilbereich wurden Methoden zur Registrierung und Segmentierung multimodaler MR-Bilder vorgestellt mit dem Ziel, ein {\bf realistisches anisotropes Multigewebe Kopfmodell} zu generieren. In der Literatur wurde von gr\'o{\ss}eren EEG- und MEG-Quell\-rekonstruktions\-fehlern aufgrund mangelhafter Modellierung insbesondere der inneren Sch\'a\-del\-kante berichtet. Ein erster Fokus dieser Arbeit lag dementsprechend auf einer verbesserten Segmentierung dieser Kante, die \'uber ein auf dem T1-gewichteten MRT (T1-MRT) registrierten Protonendichte-ge\-wich\-teten MRT (PD-MRT) gewonnen wurde. Die innere Sch\'a\-del\-kante zeichnet sich im PD-MRT im Gegensatz zum T1-MRT durch einen hohen Kontrast zwischen CSF (protonenreich) und Knochen (protonenarm) aus. Das T1-MRT wurde hingegen f\'ur die Segmentierung der Kopfhaut, der GM und der WM verwendet. Die Standardtechnik im Bereich der EEG/MEG-Quellrekonstruktion nutzt lediglich ein T1-MRT und gewinnt die gesuchte innere Sch\'adelkante \'uber ein Gl\'atten und Aufblasen der segmentierten Hirnoberfl\'ache. Im Vergleich beider Methoden konnte eine Verbesserung der Segmentierung von bis zu 8,5mm in Gebieten erzielt werden, in denen die Standardmethode die Dicke der CSF-Schicht untersch\'atzte. \'Uber die vorgestellten Methoden, insbesondere der Segmentierung unter Ber\'ucksichtigung der MR-Inhomogenit\'aten, konnte zudem eine sehr exakte Modellierung der GM erzielt werden, welche dann als anatomische und auch physiologische Nebenbedingung in die Quellrekonstruktion eingebettet werden kann. Zur realistischen Modellierung der An\-iso\-tropie der Sch\'adelschicht wurde ein deformierbares Modell eingesetzt, welches eine gegl\'attete Spongiosaoberfl\'ache darstellt und somit ein Abgreifen der Leitf\'ahigkeitstensor-Eigenvektoren in radialer Knochenrichtung erm\'oglicht. Die Eigenvektoren der WM-Tensoren wurden \'uber Ganzkopf-DT-MRT gemessen. Sch\'adel- und WM-Tensor-Eigen\-werte wurden entweder unter Ausnutzung publizierter Werte simuliert oder gem\'a{\ss} einem differentialen EMA (von engl.: Effective Medium Approach) ermittelt. Der zweite Teilbereich betraf die {\bf schnelle hochaufgel\'oste FE-Modellierung} des EEG/ MEG-Vorw\'artsproblems. Zun\'achst wurde ein \'Uberblick \'uber die Theorie gegeben und die praktische Realisierung der sp\'ater eingesetzten hochaufgel\'osten anisotropen FE-Volumen\-leiter\-modelle vorgestellt. In numerischen Genauigkeitsstudien konnte nachgewiesen werden, dass Hexaeder-FE-Netze, welche ein Verschieben der St\'utzpunkte zur Gl\'attung an Gewebekanten nutzen, vorteilhaft sind zu herk\'ommlichen Hexaeder-Netzen. Dazu wurden die Reihenentwicklungsformeln f\'ur das Mehrschalenkugel-Modell eingesetzt. Ein wei\-terer Fokus dieser Arbeit lag auf dem Einsatz schneller FE-L\'osungsmethoden, welche die praktische Anwendbarkeit von hochaufgel\'osten anisotropen FE-Kopfmodellen in den verschiedenen Anwendungsgebieten erm\'oglichen sollte. In einem Zeitvergleich zwischen dem neu in die Software integrierten parallelen (12 Prozessoren) algebraischen Mehrgitter- und dem Standard-Einprozessor-Jacobi-Vor\-kon\-di\-tio\-nierer f\'ur das Verfahren der konjugierten Gradienten konnte f\'ur hochaufgel\'oste anisotrope FE-Kopfmodelle ein Beschleunigungsfaktor von mehr als 100 erzielt werden. Im dritten Teilbereich, den {\bf Methoden zum inversen Problem}, wurden neben einem \'Uber\-blick \'uber fokale Rekonstruktions\-verfahren und Stromdichte\-rekon\-struk\-tions\-verfahren algorithmische Neuentwicklungen pr\'asentiert. Es wurde zun\'achst die Methode des {\em single dipole fit} in die FE-Modellierung eingef\'uhrt. F\'ur multiple dipolare Quellen wurde ein {\em Si\-mu\-lated Annealing} Algorithmus in Kombination mit einer abgeschnittenen Singul\'arwertzerlegung im diskreten Parameterraum entwickelt. Im Vergleich zu Standardmethoden zeigte der Algorithmus in verschiedenen Si\-mu\-lations\-studien eine ver\-bes\-serte F\'ahigkeit der Unterscheidung zwischen realen und sog. {\em ghost} Quellen. Des Weiteren wurde eine k\'urzlich in der Literatur vorgestellte raum-zeitliche Regularisierungsme\-thode auf die Stromdichterekonstruktion und, als zweite Anwendung, auf die dynamische Impedanztomographie angewandt. Der raum-zeitliche Ansatz konnte dabei eine stabilisierende Wirkung auf die Rekonstruktionsergebnisse erzielen und zeigte im Hinblick auf seine Genauigkeit und den Speicher- und Rechenzeitbedarf Vorteile gegen\'uber einem sog. {\em Kal\-man-Gl\'atter}. Im letzten Teilbereich der Dissertation wurden Untersuchungen zur {\bf An\-iso\-tro\-pie-Sensi\-tivi\-t\'at} durchgef\'uhrt. Der erste Teil bezog sich dabei auf das Vorw\'arts\-problem, wo die Resultate im Einklang mit der verf\'ugbaren Literatur waren. Es kann festgehalten werden, dass Sch\'adelanisotropie einen nicht-vernachl\'assigbaren Einfluss auf die EEG-Simulation hatte, wohingegen das MEG unbeeinflusst blieb. Je mehr eine Quelle von WM umgeben war, desto gr\'o{\ss}er war der Einfluss der WM-Anisotropie auf sowohl EEG als auch MEG. F\'ur das MEG wirkte sich WM-Anisotropie insbesondere auf Quellen mit starken radialen Anteilen aus. Lokale Leitf\'ahigkeits\'anderungen im Bereich der Quelle sollten sowohl im Hinblick auf das EEG als auch auf das MEG modelliert werden. Im zweiten Teil wurden die Einfl\'usse auf die inverse Quellrekonstruktion untersucht. Mit 18mm maximalem Fehler des EEG basierten {\em single dipole fit} war die Lokalisation einer haupts\'achlich tangential orientierten oberfl\'achennahen Quelle besonders sensitiv gegen\'uber einer 1 zu 10 Sch\'adelanisotropie. Da die tangentialen Quellen im temporalen Bereich (Sch\'adel re\-la\-tiv d\'unn) zu tief und im parietalen und okzipitalen Bereich (Sch\'adel relativ dick) zu oberfl\'achennah lokalisiert wurden, scheint eine Approximation der Sch\'adelanisotropie in BE-Modellen \'uber eine Anpassung des skalaren Sch\'adelleitf\'ahigkeitswertes nicht m\'oglich zu sein. Obwohl bei Vernachl\'assigung der WM-Anisotropie der maximale EEG-Lokalisierungsfehler mit 6,2mm f\'ur eine tiefe Quelle wesentlich geringer ausfiel, kann aufgrund eines maximalen Orientierungsfehlers von 24^{\circ} und einer mehr als zweifach untersch\'atzten Quellst\'arke eine Missinterpretation des Ergebnisses nicht ausgeschlossen werden. F\'ur die Rekonstruktion der vier tangentialen oberfl\'achennahen Dipole, welche als Aktivit\'atszentren der sog. {\em Early Left Anterior Negativity} (ELAN) Komponente bei der Syntaxanalyse von Sprache betrachtet werden, stellte sich WM und Sch\'adel\-anisotropie als vernachl\'assigbar im Hinblick auf eine MEG-Rekonstruk\-tion heraus. Im Gegensatz dazu wurde das EEG-Rekonstruktionsergebnis f\'ur alle getesteten inversen Verfahren stark verf\'alscht. Anisotropie verschob das Aktivit\'ats\-zentrum von L1L_1 und L2L_2 Norm Stromdichterekonstruktionsverfahren entlang der Sylvischen Furche in anteriore Richtung

    Signal processing in diffusion MRI : high quality signal reconstruction

    Get PDF
    Magnetic Resonance Imaging (MRI) is a medical imaging technique which is especially sensitive to different soft tissues, producing a good contrast between them. It allows for in vivo visualisation of internal structures in detail and became an indispensable tool in diagnosing and monitoring the brain related diseases and pathologies. Amongst others, MRI can be used to measure random incoherent motion of water molecules, which in turn allows to infer structural information. One of the main challenges in processing and analysing four dimensional diffusion MRI images is low signal quality. To improve the signal quality, either denoising algorithm or angular and spatial regularisations are utilised. Regularisation method based on Laplace--Beltrami smoothing operator was successfully applied to diffusion signal. In this thesis, a new regularisation strength selection scheme for diffusion signal regularisation is introduced. A mathematical model of diffusion signal is used in Monte--Carlo simulations, and a regularisation strength that optimally reconstructs the diffusion signal is sought. The regularisation values found in this research show a different trend than the currently used L-curve analysis, and further improve reconstruction accuracy. Additionally, as an alternative to regularisation methods a backward elimination regression for spherical harmonics is proposed. Instead of using the regularisation term as a low-pass filter, the statistical t-test is classifying regression terms into reliable and corrupted. Four algorithms that use this information are further introduced. As the result, a selective filtering is constructed that retains the angular sharpness of the signal, while at the same time reducing corruptive effect of measurement noise. Finally, a statistical approach for estimating diffusion signal is investigated. Based on the physical properties of water diffusion a prior knowledge for the diffusion signal is constructed. The spherical harmonic transform is then formulated as a Bayesian regression problem. Diffusion signal reconstructed with the addition of such prior knowledge is accurate, noise resilient, and of high quality

    Development of an MRI Template and Analysis Pipeline for the Spinal Cord and Application in Patients with Spinal Cord Injury

    Get PDF
    La moelle épinière est un organe fondamental du corps humain. Étant le lien entre le cerveau et le système nerveux périphérique, endommager la moelle épinière, que ce soit suite à un trauma ou une maladie neurodégénérative, a des conséquences graves sur la qualité de vie des patients. En effet, les maladies et traumatismes touchant la moelle épinière peuvent affecter l’intégrité des neurones et provoquer des troubles neurologiques et/ou des handicaps fonctionnels. Bien que de nombreuses voies thérapeutiques pour traiter les lésions de la moelle épinière existent, la connaissance de l’étendue des dégâts causés par ces lésions est primordiale pour améliorer l’efficacité de leur traitement et les décisions cliniques associées. L’imagerie par résonance magnétique (IRM) a démontré un grand potentiel pour le diagnostic et pronostic des maladies neurodégénératives et traumas de la moelle épinière. Plus particulièrement, l’analyse par template de données IRM du cerveau, couplée à des outils de traitement d’images automatisés, a permis une meilleure compréhension des mécanismes sous-jacents de maladies comme l’Alzheimer et la Sclérose en Plaques. Extraire automatiquement des informations pertinentes d’images IRM au sein de régions spécifiques de la moelle épinière présente toutefois de plus grands défis que dans le cerveau. Il n’existe en effet qu’un nombre limité de template de la moelle épinière dans la littérature, et aucun ne couvre toute la moelle épinière ou n’est lié à un template existant du cerveau. Ce manque de template et d’outils automatisés rend difficile la tenue de larges études d’analyse de la moelle épinière sur des populations variées. L’objectif de ce projet est donc de proposer un nouveau template IRM couvrant toute la moelle épinière, recalé avec un template existant du cerveau, et intégrant des atlas de la structure interne de la moelle épinière (e.g., matière blanche et grise, tracts de la matière blanche). Ce template doit venir avec une série d’outils automatisés permettant l’extraction d’information IRM au sein de régions spécifiques de la moelle épinière. La question générale de recherche de ce projet est donc « Comment créer un template générique de la moelle épinière, qui permettrait l’analyse non biaisée et reproductible de données IRM de la moelle épinière ? ». Plusieurs contributions originales ont été proposées pour répondre à cette question et vont être décrites dans les prochains paragraphes. La première contribution de ce projet est le développement du logiciel Spinal Cord Toolbox (SCT). SCT est un logiciel open-source de traitement d’images IRM multi-parametrique de la moelle épinière (De Leener, Lévy, et al., 2016). Ce logiciel intègre notamment des outils pour la détection et la segmentation automatique de la moelle épinière et de sa structure interne (i.e., matière blanche et matière grise), l’identification et la labellisation des niveaux vertébraux, le recalage d’images IRM multimodales sur un template générique de la moelle épinière (précédemment le template MNI-Poly-AMU, maintenant le template PAM50, proposé içi). En se basant sur un atlas de la moelle, SCT intègre également des outils pour extraire des données IRM de régions spécifiques de la moelle épinière, comme la matière blanche et grise et les tracts de la matière blanche, ainsi que sur des niveaux vertébraux spécifiques. D’autres outils additionnels ont aussi été proposés, comme des outils de correction de mouvement et de traitement basiques d’images appliqués le long de la moelle épinière. Chaque outil intégré à SCT a été validé sur un jeu de données multimodales. La deuxième contribution de ce projet est le développement d’une nouvelle méthode de recalage d’images IRM de la moelle épinière (De Leener, Mangeat, et al., 2017). Cette méthode a été développée pour un usage particulier : le redressement d’images IRM de la moelle épinière, mais peut également être utilisé pour recaler plusieurs images de la moelle épinière entre elles, tout en tenant compte de la distribution vertébrale de chaque sujet. La méthode proposée se base sur une approximation globale de la courbure de la moelle épinière dans l’espace et sur la résolution analytique des champs de déformation entre les deux images. La validation de cette nouvelle méthode a été réalisée sur une population de sujets sains et de patients touchés par une compression de la moelle épinière. La contribution majeure de ce projet est le développement d’un système de création de template IRM de la moelle épinière et la proposition du template PAM50 comme template de référence pour les études d’analyse par template de données IRM de la moelle épinière. Le template PAM50 a été créé à partir d’images IRM tiré de 50 sujets sains, et a été généré en utilisant le redressement d’images présenté ci-dessus et une méthode de recalage d’images itératif non linéaire, après plusieurs étapes de prétraitement d’images. Ces étapes de prétraitement incluent la segmentation automatique de la moelle épinière, l’extraction manuelle du bord antérieur du tronc cérébral, la détection et l’identification des disques intervertébraux, et la normalisation d’intensité le long de la moelle. Suite au prétraitement, la ligne centrale moyenne de la moelle et la distribution vertébrale ont été calculées sur la population entière de sujets et une image initiale de template a été générée. Après avoir recalé toutes les images sur ce template initial, le template PAM50 a été créé en utilisant un processus itératif de recalage d’image, utilisé pour générer des templates de cerveau. Le PAM50 couvre le tronc cérébral et la moelle épinière en entier, est disponible pour les contrastes IRM pondérés en T1, T2 et T2*, et intègre des cartes probabilistes et atlas de la structure interne de la moelle épinière. De plus, le PAM50 a été recalé sur le template ICBM152 du cerveau, permettant ainsi la tenue d’analyse par template simultanément dans le cerveau et dans la moelle épinière. Finalement, plusieurs résultats complémentaires ont été présentés dans cette dissertation. Premièrement, une étude de validation de la répétabilité et reproductibilité de mesures de l’aire de section de la moelle épinière a été menée sur une population de patients touchés par la sclérose en plaques. Les résultats démontrent une haute fiabilité des mesures ainsi que la possibilité de détecter des changements très subtiles de l’aire de section transverse de la moelle, importants pour mesurer l’atrophie de la moelle épinière précoce due à des maladies neurodégénératives comme la sclérose en plaques. Deuxièmement, un nouveau biomarqueur IRM des lésions de la moelle épinière a été proposé, en collaboration avec Allan Martin, de l’Université de Toronto. Ce biomarqueur, calculé à partir du ratio d’intensité entre la matière blanche et grise sur des images IRM pondérées en T2*, utilise directement les développements proposés dans ce projet, notamment en utilisant le recalage du template de la moelle épinière et les méthodes de segmentation de la moelle. La faisabilité d’extraire des mesures de données IRM multiparamétrique dans des régions spécifiques de la moelle épinière a également été démontrée, permettant d’améliorer le diagnostic et pronostic de lésions et compression de la moelle épinière. Finalement, une nouvelle méthode d’extraction de la morphométrie de la moelle épinière a été proposée et utilisée sur une population de patients touchés par une compression asymptomatique de la moelle épinière, démontrant de grandes capacités de diagnostic (> 99%). Le développement du template PAM50 comble le manque de template de la moelle épinière dans la littérature mais présente cependant plusieurs limitations. En effet, le template proposé se base sur une population de 50 sujets sains et jeunes (âge moyen = 27 +- 6.5) et est donc biaisée vers cette population particulière. Adapter les analyses par template pour un autre type de population (âge, race ou maladie différente) peut être réalisé directement sur les méthodes d’analyse mais aussi sur le template en lui-même. Tous le code pour générer le template a en effet été mis en ligne (https://github.com/neuropoly/template) pour permettre à tout groupe de recherche de développer son propre template. Une autre limitation de ce projet est le choix d’un système de coordonnées basé sur la position des vertèbres. En effet, les vertèbres ne représentent pas complètement le caractère fonctionnel de la moelle épinière, à cause de la différence entre les niveaux vertébraux et spinaux. Le développement d’un système de coordonnées spinal, bien que difficile à caractériser dans des images IRM, serait plus approprié pour l’analyse fonctionnelle de la moelle épinière. Finalement, il existe encore de nombreux défis pour automatiser l’ensemble des outils développés dans ce projet et les rendre robuste pour la majorité des contrastes et champs de vue utilisés en IRM conventionnel et clinique. Ce projet a présenté plusieurs développements importants pour l’analyse de données IRM de la moelle épinière. De nombreuses améliorations du travail présenté sont cependant requises pour amener ces outils dans un contexte clinique et pour permettre d’améliorer notre compréhension des maladies affectant la moelle épinière. Les applications cliniques requièrent notamment l’amélioration de la robustesse et de l’automatisation des méthodes d’analyse d’images proposées. La caractérisation de la structure interne de la moelle épinière, incluant la matière blanche et la matière grise, présente en effet de grands défis, compte tenu de la qualité et la résolution des images IRM standard acquises en clinique. Les outils développés et validés au cours de ce projet ont un grand potentiel pour la compréhension et la caractérisation des maladies affectant la moelle épinière et aura un impact significatif sur la communauté de la neuroimagerie.----------ABSTRACT The spinal cord plays a fundamental role in the human body, as part of the central nervous system and being the vector between the brain and the peripheral nervous system. Damaging the spinal cord, through traumatic injuries or neurodegenerative diseases, can significantly affect the quality of life of patients. Indeed, spinal cord injuries and diseases can affect the integrity of neurons, and induce neurological impairments and/or functional disabilities. While various treatment procedures exist, assessing the extent of damages and understanding the underlying mechanisms of diseases would improve treatment efficiency and clinical decisions. Over the last decades, magnetic resonance imaging (MRI) has demonstrated a high potential for the diagnosis and prognosis of spinal cord injury and neurodegenerative diseases. Particularly, template-based analysis of brain MRI data has been very helpful for the understanding of neurological diseases, using automated analysis of large groups of patients. However, extracting MRI information within specific regions of the spinal cord with minimum bias and using automated tools is still a challenge. Indeed, only a limited number of MRI template of the spinal cord exists, and none covers the full spinal cord, thereby preventing large multi-centric template-based analysis of the spinal cord. Moreover, no template integrates both the spinal cord and the brain region, thereby preventing simultaneous cerebrospinal studies. The objective of this project was to propose a new MRI template of the full spinal cord, which allows simultaneous brain and spinal cord studies, that integrates atlases of the spinal cord internal structures (e.g., white and gray matter, white matter pathways) and that comes with tools for extracting information within these subregions. More particularly, the general research question of the project was “How to create generic MRI templates of the spinal cord that would enable unbiased and reproducible template-based analysis of spinal cord MRI data?”. Several original contributions have been made to answer this question and to enable template-based analysis of spinal cord MRI data. The first contribution was the development of the Spinal Cord Toolbox (SCT), a comprehensive and open-source software for processing multi-parametric MRI data of the spinal cord (De Leener, Lévy, et al., 2016). SCT includes tools for the automatic segmentation of the spinal cord and its internal structure (white and gray matter), vertebral labeling, registration of multimodal MRI data (structural and non-structural) on a spinal cord MRI template (initially the MNI-Poly-AMU template, later the PAM50 template), co-registration of spinal cord MRI images, as well as the robust extraction of MRI metric within specific regions of the spinal cord (i.e., white and gray matter, white matter tracts, gray matter subregions) and specific vertebral levels using a spinal cord atlas (Lévy et al., 2015). Additional tools include robust motion correction and image processing along the spinal cord. Each tool included in SCT has been validated on a multimodal dataset. The second contribution of this project was the development of a novel registration method dedicated to spinal cord images, with an interest in the straightening of the spinal cord, while preserving its topology (De Leener, Mangeat et al., 2017). This method is based on the global approximation of the spinal cord and the analytical computation of deformation fields perpendicular to the centerline. Validation included calculation of distance measurements after straightening on a population of healthy subjects and patients with spinal cord compression. The major contribution of this project was the development of a framework for generating MRI template of the spinal cord and the PAM50 template, an unbiased and symmetrical MRI template of the brainstem and full spinal cord. Based on 50 healthy subjects, the PAM50 template was generated using an iterative nonlinear registration process, after applying normalization and straightening of all images. Pre-processing included segmentation of the spinal cord, manual delineation of the brainstem anterior edge, detection and identification of intervertebral disks, and normalization of intensity along the spinal cord. Next, the average centerline and vertebral distribution was computed to create an initial straight template space. Then, all images were registered to the initial template space and an iterative nonlinear registration framework was applied to create the final symmetrical template. The PAM50 covers the brainstem and the full spinal cord, from C1 to L2, is available for T1-, T2- and T2*-weighted contrasts, and includes probabilistic maps of the white and the gray matter and atlases of the white matter pathways and gray matter subregions. Additionally, the PAM50 template has been merged with the ICBM152 brain template, thereby allowing for simultaneous cerebrospinal template-based analysis. Finally, several complementary results, focused on clinical validation and applications, are presented. First, a reproducibility and repeatability study of cross-sectional area measurements using SCT (De Leener, Granberg, Fink, Stikov, & Cohen-Adad, 2017) was performed on a Multiple Sclerosis population (n=9). The results demonstrated the high reproducibility and repeatability of SCT and its ability to detect very subtle atrophy of the spinal cord. Second, a novel biomarker of spinal cord injury has been proposed. Based on the T2*-weighted intensity ratio between the white and the gray matter, this new biomarker is computed by registering MRI images with the PAM50 template and extracting metrics using probabilistic atlases. Additionally, the feasibility of extracting multiparametric MRI metrics from subregions of the spinal cord has been demonstrated and the diagnostic potential of this approach has been assessed on a degenerative cervical myelopathy (DCM) population. Finally, a method for extracting shape morphometrics along the spinal cord has been proposed, including spinal cord flattening, indentation and torsion. These metrics demonstrated high capabilities for the diagnostic of asymptomatic spinal cord compression (AUC=99.8% for flattening, 99.3% for indentation, and 98.4% for torsion). The development of the PAM50 template enables unbiased template-based analysis of the spinal cord. However, the PAM50 template has several limitations. Indeed, the proposed template has been generated with multimodal MRI images from 50 healthy and young individuals (age = 27+/- 6.5 y.o.). Therefore, the template is specific to this particular population and could not be directly usable for age- or disease-specific populations. One solution is to open-source the templategeneration code so that research groups can generate and use their own spinal cord MRI template. The code is available on https://github.com/neuropoly/template. While this project introduced a generic referential coordinate system, based on vertebral levels and the pontomedullary junction as origin, one limitation is the choice of this coordinate system. Another coordinate system, based spinal segments would be more suitable for functional analysis. However, the acquisition of MRI images with high enough resolution to delineate the spinal roots is still challenging. Finally, several challenges in the automation of spinal cord MRI processing remains, including the robust detection and identification of vertebral levels, particularly in case of small fields-of-view. This project introduced key developments for the analysis of spinal cord MRI data. Many more developments are still required to bring them into clinics and to improve our understanding of diseases affecting the spinal cord. Indeed, clinical applications require the improvement of the robustness and the automation of the proposed processing and analysis tools. Particularly, the detection and segmentation of spinal cord structures, including vertebral labeling and white/gray matter segmentation, is still challenging, given the lowest quality and resolution of standard clinical MRI acquisition. The tools developed and validated here have the potential to improve our understanding and the characterization of diseases affecting the spinal cord and will have a significant impact on the neuroimaging community

    Enabling Scalable Neurocartography: Images to Graphs for Discovery

    Get PDF
    In recent years, advances in technology have enabled researchers to ask new questions predicated on the collection and analysis of big datasets that were previously too large to study. More specifically, many fundamental questions in neuroscience require studying brain tissue at a large scale to discover emergent properties of neural computation, consciousness, and etiologies of brain disorders. A major challenge is to construct larger, more detailed maps (e.g., structural wiring diagrams) of the brain, known as connectomes. Although raw data exist, obstacles remain in both algorithm development and scalable image analysis to enable access to the knowledge within these data volumes. This dissertation develops, combines and tests state-of-the-art algorithms to estimate graphs and glean other knowledge across six orders of magnitude, from millimeter-scale magnetic resonance imaging to nanometer-scale electron microscopy. This work enables scientific discovery across the community and contributes to the tools and services offered by NeuroData and the Open Connectome Project. Contributions include creating, optimizing and evaluating the first known fully-automated brain graphs in electron microscopy data and magnetic resonance imaging data; pioneering approaches to generate knowledge from X-Ray tomography imaging; and identifying and solving a variety of image analysis challenges associated with building graphs suitable for discovery. These methods were applied across diverse datasets to answer questions at scales not previously explored

    Machine learning-based automated segmentation with a feedback loop for 3D synchrotron micro-CT

    Get PDF
    Die Entwicklung von Synchrotronlichtquellen der dritten Generation hat die Grundlage für die Untersuchung der 3D-Struktur opaker Proben mit einer Auflösung im Mikrometerbereich und höher geschaffen. Dies führte zur Entwicklung der Röntgen-Synchrotron-Mikro-Computertomographie, welche die Schaffung von Bildgebungseinrichtungen zur Untersuchung von Proben verschiedenster Art förderte, z.B. von Modellorganismen, um die Physiologie komplexer lebender Systeme besser zu verstehen. Die Entwicklung moderner Steuerungssysteme und Robotik ermöglichte die vollständige Automatisierung der Röntgenbildgebungsexperimente und die Kalibrierung der Parameter des Versuchsaufbaus während des Betriebs. Die Weiterentwicklung der digitalen Detektorsysteme führte zu Verbesserungen der Auflösung, des Dynamikbereichs, der Empfindlichkeit und anderer wesentlicher Eigenschaften. Diese Verbesserungen führten zu einer beträchtlichen Steigerung des Durchsatzes des Bildgebungsprozesses, aber auf der anderen Seite begannen die Experimente eine wesentlich größere Datenmenge von bis zu Dutzenden von Terabyte zu generieren, welche anschließend manuell verarbeitet wurden. Somit ebneten diese technischen Fortschritte den Weg für die Durchführung effizienterer Hochdurchsatzexperimente zur Untersuchung einer großen Anzahl von Proben, welche Datensätze von besserer Qualität produzierten. In der wissenschaftlichen Gemeinschaft besteht daher ein hoher Bedarf an einem effizienten, automatisierten Workflow für die Röntgendatenanalyse, welcher eine solche Datenlast bewältigen und wertvolle Erkenntnisse für die Fachexperten liefern kann. Die bestehenden Lösungen für einen solchen Workflow sind nicht direkt auf Hochdurchsatzexperimente anwendbar, da sie für Ad-hoc-Szenarien im Bereich der medizinischen Bildgebung entwickelt wurden. Daher sind sie nicht für Hochdurchsatzdatenströme optimiert und auch nicht in der Lage, die hierarchische Beschaffenheit von Proben zu nutzen. Die wichtigsten Beiträge der vorliegenden Arbeit sind ein neuer automatisierter Analyse-Workflow, der für die effiziente Verarbeitung heterogener Röntgendatensätze hierarchischer Natur geeignet ist. Der entwickelte Workflow basiert auf verbesserten Methoden zur Datenvorverarbeitung, Registrierung, Lokalisierung und Segmentierung. Jede Phase eines Arbeitsablaufs, die eine Trainingsphase beinhaltet, kann automatisch feinabgestimmt werden, um die besten Hyperparameter für den spezifischen Datensatz zu finden. Für die Analyse von Faserstrukturen in Proben wurde eine neue, hochgradig parallelisierbare 3D-Orientierungsanalysemethode entwickelt, die auf einem neuartigen Konzept der emittierenden Strahlen basiert und eine präzisere morphologische Analyse ermöglicht. Alle entwickelten Methoden wurden gründlich an synthetischen Datensätzen validiert, um ihre Anwendbarkeit unter verschiedenen Abbildungsbedingungen quantitativ zu bewerten. Es wurde gezeigt, dass der Workflow in der Lage ist, eine Reihe von Datensätzen ähnlicher Art zu verarbeiten. Darüber hinaus werden die effizienten CPU/GPU-Implementierungen des entwickelten Workflows und der Methoden vorgestellt und der Gemeinschaft als Module für die Sprache Python zur Verfügung gestellt. Der entwickelte automatisierte Analyse-Workflow wurde erfolgreich für Mikro-CT-Datensätze angewandt, die in Hochdurchsatzröntgenexperimenten im Bereich der Entwicklungsbiologie und Materialwissenschaft gewonnen wurden. Insbesondere wurde dieser Arbeitsablauf für die Analyse der Medaka-Fisch-Datensätze angewandt, was eine automatisierte Segmentierung und anschließende morphologische Analyse von Gehirn, Leber, Kopfnephronen und Herz ermöglichte. Darüber hinaus wurde die entwickelte Methode der 3D-Orientierungsanalyse bei der morphologischen Analyse von Polymergerüst-Datensätzen eingesetzt, um einen Herstellungsprozess in Richtung wünschenswerter Eigenschaften zu lenken
    corecore