32 research outputs found

    Accelerating cine-MR Imaging in Mouse Hearts Using Compressed Sensing

    Get PDF
    PURPOSE: To combine global cardiac function imaging with compressed sensing (CS) in order to reduce scan time and to validate this technique in normal mouse hearts and in a murine model of chronic myocardial infarction. MATERIALS AND METHODS: To determine the maximally achievable acceleration factor, fully acquired cine data, obtained in sham and chronically infarcted (MI) mouse hearts were 2-4-fold undersampled retrospectively, followed by CS reconstruction and blinded image segmentation. Subsequently, dedicated CS sampling schemes were implemented at a preclinical 9.4 T magnetic resonance imaging (MRI) system, and 2- and 3-fold undersampled cine data were acquired in normal mouse hearts with high temporal and spatial resolution. RESULTS: The retrospective analysis demonstrated that an undersampling factor of three is feasible without impairing accuracy of cardiac functional parameters. Dedicated CS sampling schemes applied prospectively to normal mouse hearts yielded comparable left-ventricular functional parameters, and intra- and interobserver variability between fully and 3-fold undersampled data. CONCLUSION: This study introduces and validates an alternative means to speed up experimental cine-MRI without the need for expensive hardware

    Compressed sensing in functional cardiac magnetic resonance imaging

    Get PDF
    Die MRT des Herzens wird aufgrund hoher Reproduzierbarkeit und geringer VariabilitĂ€t als Referenzstandard fĂŒr die Bestimmung der kardialen Funktion betrachtet. Auch in der prĂ€klinischen Forschung bietet die MRT eine ausgezeichnete Charakterisierung der kardialen Funktion und ermöglicht eine exzellente Analyse modellierter Krankheitsbilder. In beiden FĂ€llen besteht jedoch weiterhin Optimierungsbedarf. Die klinische Herz-MRT stellt ein aufwendiges Verfahren mit relativ langer Messzeit dar und ist dadurch mit hohen Untersuchungskosten verbunden. In der prĂ€klinischen Kleintierbildgebung mĂŒssen zum Erreichen der notwendigen höheren Orts- und Zeitauflösung ebenfalls lange Aufnahmezeiten in Kauf genommen werden. Um die kardiale MRT dort routinemĂ€ĂŸig in großen Studienkollektiven anwenden zu können, ist eine schnellere Bildgebung essentiell. Neben einer Verbesserung der Tomographen-Hardware und der Optimierung von Bildgebungssequenzen standen im letzten Jahrzehnt vermehrt informationstheoretische AnsĂ€tze zur Beschleunigung der MR-Datenakquisition im Fokus der Entwicklung. WĂ€hrend zu Beginn des Jahrtausends die Parallele Bildgebung (PI) einen Forschungsschwerpunkt reprĂ€sentierte, spielte sich in den letzten fĂŒnf Jahren vermehrt die von Donoho und CandĂšs eingefĂŒhrte Compressed Sensing (CS) Theorie in den Vordergrund. Diese ermöglicht eine Signalrekonstruktion aus unvollstĂ€ndig gemessenen Koeffizienten einer linearen Messung (z.B. Fouriermessung) unter Ausnutzung der SparsitĂ€t des Signals in einer beliebigen Transformationsbasis. Da sich die MRT hervorragend fĂŒr den Einsatz von CS eignet, wurde die Technik in der Forschung bereits vielfach angewendet. Die zur Rekonstruktion unterabgetasteter Aufnahmen nötigen CS-Algorithmen haben jedoch eine signifikante VerĂ€nderung des Bildgebungsprozesses der MRT zur Folge. Konnte dieser zuvor in guter NĂ€herung als linear und stationĂ€r betrachtet werden, so reprĂ€sentiert die CS-Rekonstruktion eine nichtlineare und nichtstationĂ€re Transformation. Objektinformation wird nicht mehr ortsunabhĂ€ngig und proportional zur IntensitĂ€t in die Abbildung transportiert. Das Bild ist viel mehr das Ergebnis eines Optimierungsprozesses, der sowohl die Konsistenz gegenĂŒber der unterabgetasteten Messung als auch die SparsitĂ€t des Signals maximiert. Der erste Teil dieser Dissertation beschreibt eine Methode, die eine objektive EinschĂ€tzung der BildqualitĂ€t CS-rekonstruierter MR-Bilder ermöglicht. Die CS-Beschleunigung verspricht eine VerkĂŒrzung der Messzeit ohne Verlust an BildqualitĂ€t, wobei letztere bisher grĂ¶ĂŸtenteils qualitativ bzw. quantitativ nur unzureichend beurteilt wurde. Konnte der Bildgebungsprozess der klassischen MRT (linear und stationĂ€r) durch die Bestimmung einer Punktspreizfunktion (PSF) robust und effektiv validiert und optimiert werden, erlauben die CS-Algorithmen aufgrund ihres nichtlinearen und nichtstationĂ€ren Verhaltens ohne Weiteres keine Ă€quivalente Analyse. Um dennoch eine entsprechende Evaluierung des CS-Bildgebungsprozesses zu ermöglichen, wurde die Anwendung einer lokalen Punktspreizfunktion (LPSF) fĂŒr den in der Folge verwendeten Iterative Soft Thresholding Algorithmus untersucht. Die LPSF berĂŒcksichtigt die OrtsabhĂ€ngigkeit der CS-Rekonstruktion und muss daher fĂŒr jeden Ort (Pixel) eines Bildes bestimmt werden. DarĂŒber hinaus wurde die LPSF im linearen Bereich der CS-Transformation ermittelt. Dazu wurde das zu bewertende Bild nach Anwenden einer kleinen lokalen Störung rekonstruiert. Die Breite des Hauptmaximums der LPSF wurde schließlich verwendet, um ortsaufgelöste Auflösungsstudien durchzufĂŒhren. Es wurde sowohl der Einfluss typischer Unterabtastschemata fĂŒr CS als auch der Einsatz diskreter Gradienten zur Sparsifizierung eines Phantombildes untersucht. Anschließend wurde die Prozedur zur Bestimmung der rĂ€umlichen und zeitlichen Auflösung in der Herzbildgebung getestet. In allen Beispielen ermöglichte das vorgeschlagene Verfahren eine solide und objektive Analyse der Bildauflösung CS-rekonstruierter Aufnahmen. Wurde zuvor meist ausschließlich auf Vergleiche mit einer vollstĂ€ndig abgetasteten Referenz zur QualitĂ€tsbeurteilung zurĂŒckgegriffen, so stellt die vorgestellte Auflösungsbestimmung einen Schritt in Richtung einer standardisierten Bildanalyse bei der Verwendung der Beschleunigung mittels CS dar. Die Analyse der Abtastmuster zeigte, dass auch bei der Anwendung von CS die BerĂŒcksichtigung der nominell höchsten Frequenzen k_max unerlĂ€sslich ist. FrĂŒhere Publikationen schlagen Abtastfolgen mit einer teils starken Gewichtung der Messpunkte zum k-Raum-Zentrum hin vor. Die Ergebnisse der vorliegenden Arbeit relativieren ein derartiges Vorgehen, da zumindest bei den durchgefĂŒhrten Untersuchungen ein Auflösungsverlust bei analoger Vorgehensweise zu verzeichnen war. Ebenso zeigten sich dynamische Aufnahmen, die unter Verwendung des x-f-Raums als sparse Basis rekonstruiert wurden, durchaus anfĂ€llig fĂŒr zeitliches Blurring. Dieses resultiert aus der UnterdrĂŒckung hoher zeitlicher Frequenzen und konnte durch die ortsaufgelösten Auflösungskarten sichtbar gemacht werden. Neben der Auflösung ist fĂŒr eine umfassende Analyse der BildqualitĂ€t auch die Untersuchung potentieller Aliasing-Artefakte sowie des Signal-zu-Rausch-VerhĂ€ltnisses (SNR) notwendig. WĂ€hrend Aliasing mit Hilfe der EintrĂ€ge der LPSF außerhalb des Hauptmaximums untersucht werden kann, wurde in Kap. 5 eine Modifikation der Multi-Replika-Methode von Robson et al. zur Rauschanalyse bei Verwendung nichtlinearer Algorithmen vorgestellt. Unter Einbeziehung aller genannten QualitĂ€tsparameter ist eine robuste Bewertung der BildqualitĂ€t auch bei einer Verwendung von CS möglich. Die differenzierte Evaluierung ebnet den Weg hin zu einem objektiven Vergleich neuer Entwicklungen mit bisherigen Standard-Techniken und kann dadurch den Einzug von CS in die klinische Anwendung vorantreiben. Nach den theoretischen Betrachtungen der BildqualitĂ€t behandelt die Dissertation die erstmalige Anwendung von CS zur Beschleunigung der funktionellen Herzdiagnostik in der prĂ€klinischen MR-Kleintierbildgebung. Diese Studien wurden in Zusammenarbeit mit der British Heart Foundation Experimental Magnetic Resonance Unit (BMRU) der University of Oxford durchgefĂŒhrt. Die Algorithmen fĂŒr eine Beschleunigung mittels der CS-Theorie wurden anhand der dort am 9,4T Tomographen gemessenen (unterabgetasteten) DatensĂ€tze entwickelt und optimiert. ZunĂ€chst wurde eine Beschleunigung ausschließlich mittels CS untersucht. Dazu wurde die segmentierte, EKG- und Atemgetriggerte kartesische Cine-Aufnahme in Phasenkodierrichtung unterabgetastet und mittels CS rekonstruiert. Die sparse Darstellung wurde durch Ermitteln zeitlicher Differenzbilder fĂŒr jede Herzphase erhalten. Durch Variation der Abtastmuster in der zeitlichen Dimension konnte ein vollstĂ€ndig abgetastetes zeitliches Mittelbild bestimmt werden, das anschließend von jedem einzelnen Herzphasenbild subtrahiert wurde. In einer Validierungsphase wurden an der Maus vollstĂ€ndig aufgenommene Cine-Akquisitionen retrospektiv unterabgetastet, um die maximal mögliche Beschleunigung mittels CS zu ermitteln. Es wurden u.a. funktionelle Herz-Parameter fĂŒr jede Gruppe des jeweiligen Beschleunigungsfaktors bestimmt und mittels einer statistischen Analyse verglichen. Die Gesamtheit aller Ergebnisse zeigte die Möglichkeit einer dreifachen Beschleunigung ohne eine Degradierung der Genauigkeit der Methode auf. Die ermittelte Maximalbeschleunigung wurde in einer unterabgetastet gemessenen Bilderserie mit anschließender CS-Rekonstruktion validiert. Die Abtastschemata wurden dazu mit Hilfe der Transformations-Punktspreizfunktion weiter optimiert. In einer Erweiterung der Studie wurde zum Zweck einer noch höheren Beschleunigung die CS-Technik mit der PI kombiniert. Erneut fand eine Unterabtastung der Phasenkodierrichtung einer kartesischen Trajektorie statt. Die Messungen erfolgten mit einer 8-Kanal-MĂ€usespule an einem 9,4T Tomographen. Um das Potential beider Beschleunigungstechniken auszunutzen, wurden die Methoden CS und PI in serieller Weise implementiert. FĂŒr die PI-Beschleunigung wurde der vollstĂ€ndig abgetastete k-Raum zunĂ€chst gleichmĂ€ĂŸig unterabgetastet. Auf dem resultierenden Untergitter wurde zusĂ€tzlich eine Unterabtastung nach Pseudo-Zufallszahlen durchgefĂŒhrt, um eine Beschleunigung mittels CS zu ermöglichen. Die entwickelte Rekonstruktion erfolgte ebenfalls seriell. ZunĂ€chst wurde mittels CS das Ă€quidistante Untergitter rekonstruiert, um anschließend mittels GRAPPA die noch fehlenden Daten zu berechnen. Um eine zusĂ€tzliche Messung zur Kalibrierung der GRAPPA-Faktoren zu umgehen, wurde das Ă€quidistant unterabgetastete Untergitter von Herzphase zu Herzphase um je einen Phasenkodierschritt weitergeschoben. Dieses Vorgehen erlaubt die Ermittlung eines vollstĂ€ndig abgetasteten k-Raums mit einer geringeren zeitlichen Auflösung, der die notwendige Bestimmung der Wichtungsfaktoren ermöglicht. Folgende Kombinationen von Beschleunigungsfaktoren wurden mittels retrospektiver Unterabtastung eines vollstĂ€ndig aufgenommenen Datensatzes untersucht: R_CS x R_PI = 2 x 2, 2 x 3, 3 x 2 und 3 x 3. Die Analyse des Bildrauschens, des systematischen Fehlers und der Auflösung fĂŒhrte zu dem Schluss, dass eine sechsfache Beschleunigung mit Hilfe der hybriden Rekonstruktionstechnik möglich ist. WĂ€hrend mit steigender CS-Beschleunigung der systematische Fehler leicht anstieg, fĂŒhrte ein höherer PI-Beschleunigungsfaktor zu einer leichten VerstĂ€rkung des statistischen Fehlers. Der statistische Fehler zeigte jedoch ebenfalls eine Verringerung bei steigender Beschleunigung mittels CS. Die Fehler waren allerdings stets auf einem Niveau, das durchaus auch Beschleunigungen bis R_CS x R_PI =3 x 3 zulĂ€sst. Die LPSF-Analyse zeigte einen Verlust der rĂ€umlichen Auflösung von ca. 50 % bei R=6 sowie einen mittleren Verlust von 64 % bei R=9. Offensichtlich ging die ebenfalls beobachtete Minimierung des Bildrauschens durch den CS-Algorithmus im Falle der relativ stark verrauschten Kleintieraufnahmen zu Lasten der Bildauflösung. Die mit zunehmender Beschleunigung stĂ€rker geblurrten Grenzen zwischen Blutpool und Myokardgewebe erschweren die Segmentierung und stellen eine mögliche Fehlerquelle dar. Unter Beachtung aller Ergebnisse ist eine sechsfache Beschleunigung (R_CS x R_PI = 2 x 3, 3 x 2) vertretbar. Die Hinzunahme der PI ermöglicht somit im Vergleich zur alleinigen Verwendung von CS eine weitere Beschleunigung um einen Faktor von zwei. Zusammenfassend ermöglicht der Einsatz von CS in der prĂ€klinischen funktionellen Herzbildgebung am Kleintier eine deutliche Reduktion der Messzeit. Bereits ohne Vorhandensein von Mehrkanalspulen kann die notwendige Datenmenge ohne signifikante Beeinflussung der Messergebnisse auf ein Drittel reduziert werden. Ist der Einsatz von Spulenarrays möglich, kann die mit PI mögliche dreifache Beschleunigung um einen weiteren Faktor zwei mittels CS auf R=6 erweitert werden. Dementsprechend kann CS einen wesentlichen Beitrag dazu leisten, dass das Potential Herz-MRT am Kleintier in großen Studienkollektiven effektiver abgerufen werden kann. Im letzten Teil der Arbeit wurde eine Technik fĂŒr die funktionelle klinische MR-Herzbildgebung entwickelt. Hier wurde eine Beschleunigung mittels CS verwendet, um die Aufnahme des gesamten Herzens innerhalb eines Atemstillstandes des Patienten zu ermöglichen. Bei der derzeitigen Standardmethode werden ĂŒblicherweise 10-15 2D-Schichten des Herzens akquiriert, wobei jede einzelne Aufnahme einen Atemstillstand des Patienten erfordert. FĂŒr die notwendige Beschleunigung wurde eine unterabgetastete 3D-Trajektorie verwendet. Durch Phasenkodierung einer Richtung sowie radiale Projektionen in den beiden anderen Dimensionen konnte eine effiziente Aufnahme unterhalb des Nyquist-Kriteriums erreicht werden. Die Sparsifizierung erfolgte, wie bereits in der beschriebenen prĂ€klinischen Anwendung, durch die Subtraktion eines zeitlichen Mittelbildes. In einer Simulation anhand eines retrospektiv unterabgetasteten Datensatzes konnte die theoretische FunktionalitĂ€t der Rekonstruktionstechnik bei einer Beschleunigung bezĂŒglich der Nyquist-Abtastung von R ~ 10 validiert werden. Die Unterschiede zum vollstĂ€ndig abgetasteten Datensatz waren vernachlĂ€ssigbar klein, so dass die vorgeschlagene Abtastfolge am Tomographen implementiert wurde. Mit dieser Sequenz wurde anschließend eine funktionelle Bilderserie an einem gesunden Probanden mit vollstĂ€ndiger Herzabdeckung innerhalb eines Atemstopps aufgenommen. Fehlende Daten wurden analog zur Simulation mit Hilfe des vorgeschlagenen Algorithmus rekonstruiert. Im Vergleich zur Simulation ergaben sich aufgrund des Schichtprofils der 3D-Slab-Anregung zusĂ€tzliche Aliasing-Artefakte in den Ă€ußeren Partitionen. Die fĂŒr radiale Aufnahmen typischen Streifenartefakte waren im rekonstruierten Bild, wenn auch mit sehr geringer Amplitude, noch erkennbar. Davon abgesehen wurde die Dynamik jedoch ĂŒber das gesamte Herz hinweg gut dargestellt. Der hohe Kontrast zwischen Myokard und Blutpool bescheinigt den Bildern eine hervorragende Eignung fĂŒr die Bestimmung funktioneller Herzparameter mittels einer Segmentierung. Zusammengefasst erlaubt die entwickelte Methode aufgrund der drastischen Reduktion der notwendigen Atemstopps des Patienten einen deutlich erhöhten Patientenkomfort sowie einen schnelleren Durchsatz aufgrund der verkĂŒrzten Messzeit.Because of its high reproducibility and its low variability, magnetic resonance imaging (MRI) of the heart is considered the gold-standard for assessing the cardiac function. In preclinical research, magnetic resonance imaging equally provides an accurate characterization of the cardiac function and enables an excellent analysis of modeled diseases. However, there is still a need for improvement in both applications. Clinical cardiac MRI represents a sophisticated procedure featuring long scan times. This renders the examination comparatively expensive. In preclinical imaging of small animals, long scan times have to be accepted to obtain the required high spatial and temporal resolution. Fast imaging is thus essential for an effective application of cardiac MRI in large collectives. Besides the improvement of the scanner hardware and the optimization of imaging sequences, research in the last decade concentrated on procedures to accelerate MR-data acquisition by exploiting information theory. While numerous publications were associated with parallel imaging (PI) at the beginning of this millennium, the compressed sensing theory (CS) recently gained more and more interest. The latter technique enables the reconstruction of signals from undersampled linear measurements (e.g. the Fourier basis) by exploiting the sparsity of the signal in any known transform domain. As MRI is perfectly qualified for an application of CS, a lot of publications already report on dedicated research. However, the algorithms needed for the reconstruction of undersampled data significantly alter the imaging process of MRI. Classical MRI could be assumed to be linear and stationary in a sufficiently good approximation. The introduction of CS into MRI means a change towards a non-linear and non-stationary transformation. Object information is no longer transferred into an image independently from its location and proportional to its intensity. The image is rather the result of an optimization process maximizing both the fidelity to measured data as well as the sparsity of the signal. The first chapter of this thesis describes a method to objectively evaluate the image quality of MR images reconstructed by CS algorithms. The acceleration with CS promises a reduction of scan time while preserving the image quality. The latter, however, has only been assessed qualitatively or in an insufficient quantitative manner. While classical (linear and stationary) MRI could be validated robustly and effectively by determining a point spread function (PSF), CS algorithms prohibit a corresponding analysis in an analogous manner due to their non-linear and non-stationary behavior. Therefore, the application of a local point spread function (LPSF) was investigated for the iterative soft thresholding (IST) algorithm used in this thesis, to enable a comparative evaluation for imaging systems including CS. The LPSF considers the local dependency of the CS algorithm and thus has to be determined in every location (pixel) of an image. In addition, the LPSF was defined in the linear part of the CS transformation. Small local perturbation on the image to be evaluated were reconstructed for this purpose. The width of the main lobe of the LPSF was used to perform spatially resolved studies on the resolution. The influence of typical undersampling schemes for CS as well as the usage of a discrete gradient transform for a further sparsification were investigated. Subsequently, the procedure was used to assess the spatial and temporal resolution in cardiac MRI. For all CS reconstructions performed in this work, the method allowed a solid and objective analysis of the image resolution. While up to now, comparisons to a fully sampled reference are widely used for a quality assessment, the proposed resolution evaluation represents a step towards a standardized analysis of images obtained by exploiting CS acceleration. The study on sampling schemes revealed, that also for CS accelerated acquisitions, the highest frequencies of the desired k-space have to be included. Former publications proposed undersampling patterns which partly featured a strong weight towards the center of k-space. The results of this thesis put these findings into perspective, as a loss in resolution has been observed for according approaches, at least for the simulations performed in this work. The dynamic acquisitions which were reconstructed exploiting x-f-sparsity proved to be prone to temporal blurring. This is substantiated by the suppression of high temporal frequencies and was analyzed by means of spatially resolved maps. Besides the resolution, an investigation of potential aliasing artifacts as well as the signal-to-noise-ratio (SNR) is essential for a comprehensive quality evaluation. While aliasing may also be investigated by means of the entries of the LPSF outside the main lobe, a modification of the multi-replica method proposed by Robson et al. was presented in chapter 5 to analyze the noise in CS reconstructed images. Taking into account all quality parameters, a robust evaluation of image quality is possible, even when CS is included in the imaging process. This allows a more objective comparison between new developments and present standard procedures and thus may aid the introduction of CS in clinical imaging. After the theoretical analysis on image quality, the next part of this thesis reports on the first application of CS to accelerate functional cardiac MRI of small animals. The studies were performed in cooperation with the British Heart Foundation Experimental Magnetic Resonance Unit (BMRU) of the University of Oxford. The algorithms needed for the CS acceleration were developed and optimized by means of the data acquired by the BMRU at their 9,4 T scanner.\\ An acceleration solely based on CS was investigated first. For this purpose, an ECG- and respiratory gated Cartesian cine acquisition was undersampled in phase encoding direction and reconstructed using CS. The dynamic time series was sparsified by determining temporal difference images for every time frame. A fully sampled temporal average image was obtained by varying the sampling pattern in the temporal dimension. Subsequently, this average image was subtracted from the images of individual heart phases, yielding the sparse temporal difference images. In the validation stage of the study, fully sampled cine acquisitions of mouse hearts were retrospectively undersampled in order to figure out the maximum possible CS acceleration. Cardiac functional parameters were determined for each group of a certain undersampling factor and compared by a statistical analysis. It was shown that a three-fold acceleration is possible without any degradation in the accuracy of the method. This undersampling factor was then validated in an accelerated measurement with a subsequent CS reconstruction. For this purpose, the sampling patterns were further optimized using the transform point spread function. In the subsequent chapter, the CS theory was combined with PI to further increase the acceleration. Again, the phase encoding direction of a Cartesian trajectory was undersampled. The acquisitions were performed using a 9,4 T scanner equipped with an 8 channel mouse coil. In order to exploit the potential of both techniques, CS and PI were combined in a serial manner. First, the k-space was equidistantly undersampled to enable the application of PI. An additional undersampling according to pseudo random numbers was then performed on the resulting sub-grid to allow an acceleration by CS. In consequence, the reconstruction was performed in a serial manner, too. CS was first applied to reconstruct the equidistantly undersampled sub-grid. GRAPPA was used subsequently to compute the still missing data. The equidistantly undersampled sub-grid was shifted from heart phase to heart phase in order to obtain a fully sampled low temporal resolution k-space for a calibration of the GRAPPA-weights. This procedure spares the acquisition time of a separate calibration scan. The following combinations were investigated by retrospectively undersampling a fully sampled cine dataset: R_CS x R_PI = 2 x 2, 2 x 3, 3 x 2 and 3 x 3. The analysis of the noise behavior, the systematic error and the resolution leads to the conclusion that a six-fold acceleration is possible using the proposed hybrid technique. While an incr

    Model-Based Acceleration of Look-Locker T1 Mapping

    Get PDF
    Mapping the longitudinal relaxation time T1T_1 has widespread applications in clinical MRI as it promises a quantitative comparison of tissue properties across subjects and scanners. Due to the long scan times of conventional methods, however, the use of quantitative MRI in clinical routine is still very limited. In this work, an acceleration of Inversion-Recovery Look-Locker (IR-LL) T1T_1 mapping is presented. A model-based algorithm is used to iteratively enforce an exponential relaxation model to a highly undersampled radially acquired IR-LL dataset obtained after the application of a single global inversion pulse. Using the proposed technique, a T1T_1 map of a single slice with 1.6mm in-plane resolution and 4mm slice thickness can be reconstructed from data acquired in only 6s. A time-consuming segmented IR experiment was used as gold standard for T1T_1 mapping in this work. In the subsequent validation study, the model-based reconstruction of a single-inversion IR-LL dataset exhibited a T1T_1 difference of less than 2.6% compared to the segmented IR-LL reference in a phantom consisting of vials with T1T_1 values between 200ms and 3000ms. In vivo, the T1T_1 difference was smaller than 5.5% in WM and GM of seven healthy volunteers. Additionally, the T1T_1 values are comparable to standard literature values. Despite the high acceleration, all model-based reconstructions were of a visual quality comparable to fully sampled references. Finally, the reproducibility of the T1T_1 mapping method was demonstrated in repeated acquisitions. In conclusion, the presented approach represents a promising way for fast and accurate T1T_1 mapping using radial IR-LL acquisitions without the need of any segmentation

    Self-configuring nnU-net pipeline enables fully automatic infarct segmentation in late enhancement MRI after myocardial infarction

    No full text
    Purpose To fully automatically derive quantitative parameters from late gadolinium enhancement (LGE) cardiac MR (CMR) in patients with myocardial infarction and to investigate if phase sensitive or magnitude reconstructions or a combination of both results in best segmentation accuracy. Methods In this retrospective single center study, a convolutional neural network with a U-Net architecture with a self-configuring framework (“nnU-net”) was trained for segmentation of left ventricular myocardium and infarct zone in LGE-CMR. A database of 170 examinations from 78 patients with history of myocardial infarction was assembled. Separate fitting of the model was performed, using phase sensitive inversion recovery, the magnitude reconstruction or both contrasts as input channels. Manual labelling served as ground truth. In a subset of 10 patients, the performance of the trained models was evaluated and quantitatively compared by determination of the SĂžrensen-Dice similarity coefficient (DSC) and volumes of the infarct zone compared with the manual ground truth using Pearson’s r correlation and Bland-Altman analysis. Results The model achieved high similarity coefficients for myocardium and scar tissue. No significant difference was observed between using PSIR, magnitude reconstruction or both contrasts as input (PSIR and MAG; mean DSC: 0.83 ± 0.03 for myocardium and 0.72 ± 0.08 for scars). A strong correlation for volumes of infarct zone was observed between manual and model-based approach (r = 0.96), with a significant underestimation of the volumes obtained from the neural network. Conclusion The self-configuring nnU-net achieves predictions with strong agreement compared to manual segmentation, proving the potential as a promising tool to provide fully automatic quantitative evaluation of LGE-CMR

    The temperature dependence of gradient system response characteristics

    Get PDF
    Purpose: The gradient system transfer function (GSTF) characterizes the frequency transfer behavior of a dynamic gradient system and can be used to correct non‐Cartesian k‐space trajectories. This study analyzes the impact of the gradient coil temperature of a 3T scanner on the GSTF. Methods: GSTF self‐ and B0_0‐cross‐terms were acquired for a 3T Siemens scanner (Siemens Healthcare, Erlangen, Germany) using a phantom‐based measurement technique. The GSTF terms were measured for various temperature states up to 45°C. The gradient coil temperatures were measured continuously utilizing 12 temperature sensors which are integrated by the vendor. Different modeling approaches were applied and compared. Results: The self‐terms depend linearly on temperature, whereas the B0‐cross‐term does not. Effects induced by thermal variation are negligible for the phase response. The self‐terms are best represented by a linear model including the three gradient coil sensors that showed the maximum temperature dependence for the three axes. The use of time derivatives of the temperature did not lead to an improvement of the model. The B0_0‐cross‐terms can be modeled by a convolution model which considers coil‐specific heat transportation. Conclusion: The temperature dependency of the GSTF was analyzed for a 3T Siemens scanner. The self‐ and B0‐cross‐terms can be modeled using a linear and convolution modeling approach based on the three main temperature sensor elements

    Model-based Acceleration of Parameter mapping (MAP) for saturation prepared radially acquired data

    No full text
    A reconstruction technique called Model-based Acceleration of Parameter mapping (MAP) is presented allowing for quantification of longitudinal relaxation time and proton density from radial single-shot measurements after saturation recovery magnetization preparation. Using a mono-exponential model in image space, an iterative fitting algorithm is used to reconstruct one well resolved and consistent image for each of the projections acquired during the saturation recovery relaxation process. The functionality of the algorithm is examined in numerical simulations, phantom experiments, and in-vivo studies. MAP reconstructions of single-shot acquisitions feature the same image quality and resolution as fully sampled reference images in phantom and in-vivo studies. The longitudinal relaxation times obtained from the MAP reconstructions are in very good agreement with the reference values in numerical simulations as well as phantom and in-vivo measurements. Compared to available contrast manipulation techniques, no averaging of projections acquired at different time points of the relaxation process is required in MAP imaging. The proposed technique offers new ways of extracting quantitative information from single-shot measurements acquired after magnetization preparation. The reconstruction simultaneously yields images with high spatiotemporal resolution fully consistent with the acquired data as well as maps of the effective longitudinal relaxation parameter and the relative proton density. Magn Reson Med 70:1524-1534, 2013. © 2013 Wiley Periodicals, Inc. Copyrigh

    A data-driven semantic segmentation model for direct cardiac functional analysis based on undersampled radial MR cine series

    No full text
    Purpose Image acquisition and subsequent manual analysis of cardiac cine MRI is time-consuming. The purpose of this study was to train and evaluate a 3D artificial neural network for semantic segmentation of radially undersampled cardiac MRI to accelerate both scan time and postprocessing. Methods A database of Cartesian short-axis MR images of the heart (148,500 images, 484 examinations) was assembled from an openly accessible database and radial undersampling was simulated. A 3D U-Net architecture was pretrained for segmentation of undersampled spatiotemporal cine MRI. Transfer learning was then performed using samples from a second database, comprising 108 non-Cartesian radial cine series of the midventricular myocardium to optimize the performance for authentic data. The performance was evaluated for different levels of undersampling by the Dice similarity coefficient (DSC) with respect to reference labels, as well as by deriving ventricular volumes and myocardial masses. Results Without transfer learning, the pretrained model performed moderately on true radial data [maximum number of projections tested, P = 196; DSC = 0.87 (left ventricle), DSC = 0.76 (myocardium), and DSC =0.64 (right ventricle)]. After transfer learning with authentic data, the predictions achieved human level even for high undersampling rates (P = 33, DSC = 0.95, 0.87, and 0.93) without significant difference compared with segmentations derived from fully sampled data. Conclusion A 3D U-Net architecture can be used for semantic segmentation of radially undersampled cine acquisitions, achieving a performance comparable with human experts in fully sampled data. This approach can jointly accelerate time-consuming cine image acquisition and cumbersome manual image analysis

    Data from: Model-based acceleration of Look-Locker T1 mapping

    No full text
    Mapping the longitudinal relaxation time T1 has widespread applications in clinical MRI as it promises a quantitative comparison of tissue properties across subjects and scanners. Due to the long scan times of conventional methods, however, the use of quantitative MRI in clinical routine is still very limited. In this work, an acceleration of Inversion-Recovery Look-Locker (IR-LL) T1 mapping is presented. A model-based algorithm is used to iteratively enforce an exponential relaxation model to a highly undersampled radially acquired IR-LL dataset obtained after the application of a single global inversion pulse. Using the proposed technique, a T1 map of a single slice with 1.6mm in-plane resolution and 4mm slice thickness can be reconstructed from data acquired in only 6s. A time-consuming segmented IR experiment was used as gold standard for T1 mapping in this work. In the subsequent validation study, the model-based reconstruction of a single-inversion IR-LL dataset exhibited a T1 difference of less than 2.6% compared to the segmented IR-LL reference in a phantom consisting of vials with T1 values between 200ms and 3000ms. In vivo, the T1 difference was smaller than 5.5% in WM and GM of seven healthy volunteers. Additionally, the T1 values are comparable to standard literature values. Despite the high acceleration, all model-based reconstructions were of a visual quality comparable to fully sampled references. Finally, the reproducibility of the T1 mapping method was demonstrated in repeated acquisitions. In conclusion, the presented approach represents a promising way for fast and accurate T1 mapping using radial IR-LL acquisitions without the need of any segmentation
    corecore