33 research outputs found

    Approximate Message Passing with a Colored Aliasing Model for Variable Density Fourier Sampled Images

    Full text link
    The Approximate Message Passing (AMP) algorithm efficiently reconstructs signals which have been sampled with large i.i.d. sub-Gaussian sensing matrices. Central to AMP is its "state evolution", which guarantees that the difference between the current estimate and ground truth (the "aliasing") at every iteration obeys a Gaussian distribution that can be fully characterized by a scalar. However, when Fourier coefficients of a signal with non-uniform spectral density are sampled, such as in Magnetic Resonance Imaging (MRI), the aliasing is intrinsically colored, AMP's scalar state evolution is no longer accurate and the algorithm encounters convergence problems. In response, we propose the Variable Density Approximate Message Passing (VDAMP) algorithm, which uses the wavelet domain to model the colored aliasing. We present empirical evidence that VDAMP obeys a "colored state evolution", where the aliasing obeys a Gaussian distribution that can be fully characterized with one scalar per wavelet subband. A benefit of state evolution is that Stein's Unbiased Risk Estimate (SURE) can be effectively implemented, yielding an algorithm with subband-dependent thresholding that has no free parameters. We empirically evaluate the effectiveness of VDAMP on three variations of Fast Iterative Shrinkage-Thresholding (FISTA) and find that it converges in around 10 times fewer iterations on average than the next-fastest method, and to a comparable mean-squared-error.Comment: 13 pages, 7 figures, 3 tables. arXiv admin note: text overlap with arXiv:1911.0123

    An Approximate Message Passing Algorithm for Rapid Parameter-Free Compressed Sensing MRI

    Full text link
    For certain sensing matrices, the Approximate Message Passing (AMP) algorithm efficiently reconstructs undersampled signals. However, in Magnetic Resonance Imaging (MRI), where Fourier coefficients of a natural image are sampled with variable density, AMP encounters convergence problems. In response we present an algorithm based on Orthogonal AMP constructed specifically for variable density partial Fourier sensing matrices. For the first time in this setting a state evolution has been observed. A practical advantage of state evolution is that Stein's Unbiased Risk Estimate (SURE) can be effectively implemented, yielding an algorithm with no free parameters. We empirically evaluate the effectiveness of the parameter-free algorithm on simulated data and find that it converges over 5x faster and to a lower mean-squared error solution than Fast Iterative Shrinkage-Thresholding (FISTA).Comment: 5 pages, 5 figures, IEEE International Conference on Image Processing (ICIP) 202

    LocOMP: algorithme localement orthogonal pour l'approximation parcimonieuse rapide de signaux longs sur des dictionnaires locaux

    Get PDF
    National audienceCet article présente LocOMP, un algorithme d'approximation parcimonieuse rapide pour les dictionnaires locaux (en particulier, les dictionnaires invariants par translation comme les dictionnaires temps-fréquence). Expérimentalement, LocOMP fournit des approximations aussi bonnes qu'OMP tout en restant dans la même classe de complexité que MP. C'est à notre connaissance le premier algorithme plus évolué que MP utilisable sur des signaux longs. LocOMP s'est montré expérimentalement 500 fois plus rapide qu'OMP

    Learning a Probabilistic Model for Diffeomorphic Registration

    Get PDF
    International audienceWe propose to learn a low-dimensional probabilistic deformation model from data which can be used for registration and the analysis of deformations. The latent variable model maps similar deformations close to each other in an encoding space. It enables to compare deformations, generate normal or pathological deformations for any new image or to transport deformations from one image pair to any other image. Our unsupervised method is based on variational inference. In particular, we use a conditional variational autoencoder (CVAE) network and constrain transformations to be symmetric and diffeomorphic by applying a differentiable exponentiation layer with a symmetric loss function. We also present a formulation that includes spatial regularization such as diffusion-based filters. Additionally, our framework provides multi-scale velocity field estimations. We evaluated our method on 3-D intra-subject registration using 334 cardiac cine-MRIs. On this dataset, our method showed state-of-the-art performance with a mean DICE score of 81.2% and a mean Hausdorff distance of 7.3mm using 32 latent dimensions compared to three state-of-the-art methods while also demonstrating more regular deformation fields. The average time per registration was 0.32s. Besides, we visualized the learned latent space and show that the encoded deformations can be used to transport deformations and to cluster diseases with a classification accuracy of 83% after applying a linear projection

    Learning a Probabilistic Model for Diffeomorphic Registration

    Get PDF
    International audienceWe propose to learn a low-dimensional probabilistic deformation model from data which can be used for registration and the analysis of deformations. The latent variable model maps similar deformations close to each other in an encoding space. It enables to compare deformations, generate normal or pathological deformations for any new image or to transport deformations from one image pair to any other image. Our unsupervised method is based on variational inference. In particular, we use a conditional variational autoencoder (CVAE) network and constrain transformations to be symmetric and diffeomorphic by applying a differentiable exponentiation layer with a symmetric loss function. We also present a formulation that includes spatial regularization such as diffusion-based filters. Additionally, our framework provides multi-scale velocity field estimations. We evaluated our method on 3-D intra-subject registration using 334 cardiac cine-MRIs. On this dataset, our method showed state-of-the-art performance with a mean DICE score of 81.2% and a mean Hausdorff distance of 7.3mm using 32 latent dimensions compared to three state-of-the-art methods while also demonstrating more regular deformation fields. The average time per registration was 0.32s. Besides, we visualized the learned latent space and show that the encoded deformations can be used to transport deformations and to cluster diseases with a classification accuracy of 83% after applying a linear projection

    Iterative static ∆B0 field map estimation for off-resonance correction in non-Cartesian susceptibility weighted imaging

    Get PDF
    International audiencePatient-induced inhomogeneities in the magnetic field cause distortions and blurring during acquisitions with long readouts such as in susceptibility-weighted imaging (SWI). Most correction methods require collecting an additional ∆B 0 field map to remove these artifacts. The static ∆B0 field map can be approximated with an acceptable error directly from a single echo acquisition in SWI. The main component of the observed phase is linearly related to ∆B0 and the echo time TE , and the relative impact of non-∆B0 terms becomes insignificant with TE > 20ms at 3T for a well-tuned system. The main step is to combine and unfold the multi-channel phase maps wrapped many times, and several competing algorithms are compared for this purpose. Four in vivo brain data sets collected using the recently proposed 3D SPARKLING readouts are used to assess the proposed method. The estimated 3D field maps generated with a 0.6 mm isotropic spatial resolution provide overall similar off-resonance corrections compared to reference corrections based on an external ∆B0 acquisitions, and even improved for two out of four individuals. Although a small estimation error is expected, no aftermath was observed in the proposed corrections, while degradations were observed in the references. A static ∆B0 field map estimation method was proposed to take advantage of acquisitions with long echo times, and outperformed the reference technique based on an external field map. The difference can be attributed to an inherent robustness to mismatches between volumes and external ∆B0 maps, and diverse other sources investigated

    Correction d'inhomogénéités de champs pour la SWI non-cartésienne par estimation des cartes de champs

    Get PDF
    International audiencePatient-induced inhomogeneities in the magnetic field cause distortions and blurring during acquisitions with long echo times, as in susceptibility-weighted imaging. Most correction methods require collecting an additional ΔB0 field map. To avoid that, we propose a method to approximate this field map using the single echo acquisition only. The main component of the observed phase is linearly related to ΔB0 and TE, and the relative impact of non-ΔB0 terms becomes insignificant with TE>20ms at 3T. The estimated 3D field maps, produced at 0.6 mm isotropic under 3 minutes, provide equivalent corrections to acquired ones.Les inhomogénéités de champs induites par les patients sont à l'origine de distorsions et de floutages durant les acquisitions à temps d'écho longs, comme pour l'imagerie pondérée en susceptibilité. La plupart des méthodes de correction nécessitent d'acquérir une carte de champ ΔB0 additionnelle. Pour éviter cela, nous proposons une méthode pour approximer cette carte de champs en utilisant seulement l'acquisition à écho unique. La composante principale de la phase observée est linéairement liée au ΔB0 et au TE, et l'impact relatif des termes indépendants du ΔB0 deviennent négligeables pour TE>20ms à 3T. Les cartes 3D estimées, produites à 0.6 mm isotrope en moins de 3 minutes, permettent d'obtenir une correction équivalente aux cartes acquises

    Modèles et algorithmes pour la modélisation parcimonieuse de signaux de grande dimension

    No full text
    This thesis provides fast algorithms for sparse representations. Sparse representations consist in modelling the signal as a linear combination of a few atoms chosen among a redundant (more atoms than the signal dimension) dictionary. How to decompose a given signal over a given dictionary? This problem is NP-Complete. Existing suboptimal algorithms are either to slow to be applied on large signals or compute coarse approximations. We propose a new algorithm, LocOMP, that is both scalable and achieves good approximation quality. LocOMP only works with local dictionaries: the support of an atom is much shorter than the signal length. How to learn a dictionary on which a given class of signals can be decomposed? This problem is even more difficult: its resolution usually involves several sparse decompositions. We propose to improve the Olshausen-Field algorithm. It optimizes the dictionary via fixed step gradient descent. We show how to compute the optimal step. This makes the algorithm converge faster towards a better dictionary. These algorithms were applied to the study of atrial fibrillation. Atrial fibrillation is a common heart arrhythmia: the atria start vibrating instead of beating. One would like to observe I in the patient's ECG but the ECG is a mixture of fibrillation and ventricular activity. Our separation method is based on the learning of one dictionary for the fibrillation and one for the ventricular activity, both of them learnt on the patient's ECG.Cette thèse propose des algorithmes rapides pour les représentations parcimonieuses. Les représentations parcimonieuses consistent à approcher le signal par une combinaison linéaire de peu d'atomes choisis dans un dictionnaire redondant (plus d'atomes que la dimension du signal). Comment décomposer un signal donné sur un dictionnaire donné ? C'est un problème NP-complet. Les algorithmes approchés existants sont trop coûteux pour être employés sur de grands signaux ou bien calculent une approximation grossière. Nous proposons un nouvel algorithme, LocOMP, qui passe à l'échelle sans sacrifier la qualité d'approximation. LocOMP nécessite des dictionnaires locaux : la longueur du support d'un atome est petite devant celle du signal. Comment apprendre un dictionnaire qui permet la représentation parcimonieuse d'une famille de signaux donnée ? C'est un problème encore plus complexe : on le résout habituellement en itérant plusieurs décompositions parcimonieuses. Nous proposons une amélioration de l'algorithme d'Olshausen-Field qui optimise le dictionnaire par descente de gradient à pas fixe. Nous exprimons le pas optimal la descente. L'algorithme converge ainsi plus vite vers un meilleur dictionnaire. Enfin, nous avons appliqué ces outils pour isoler les signaux de fibrillation atriale dans l'électrocardiogramme du patient. La fibrillation atriale est une arythmie cardiaque : les atria tremblent au lieu de battre. On souhaite observer la fibrillation dans l'ECG, mais elle est mélangée à l'activité ventriculaire. Notre méthode de séparation est basée sur l'apprentissage d'un dictionnaire pour la fibrillation et un pour l'activité ventriculaire, tous deux appris sur le même ECG

    Modèles et algorithmes pour la modélisation parcimonieuse de signaux de grande dimension

    No full text
    This thesis provides fast algorithms for sparse representations. Sparse representations consist in modelling the signal as a linear combination of a few atoms chosen among a redundant (more atoms than the signal dimension) dictionary. How to decompose a given signal over a given dictionary? This problem is NP-Complete. Existing suboptimal algorithms are either to slow to be applied on large signals or compute coarse approximations. We propose a new algorithm, LocOMP, that is both scalable and achieves good approximation quality. LocOMP only works with local dictionaries: the support of an atom is much shorter than the signal length. How to learn a dictionary on which a given class of signals can be decomposed? This problem is even more difficult: its resolution usually involves several sparse decompositions. We propose to improve the Olshausen-Field algorithm. It optimizes the dictionary via fixed step gradient descent. We show how to compute the optimal step. This makes the algorithm converge faster towards a better dictionary. These algorithms were applied to the study of atrial fibrillation. Atrial fibrillation is a common heart arrhythmia: the atria start vibrating instead of beating. One would like to observe I in the patient's ECG but the ECG is a mixture of fibrillation and ventricular activity. Our separation method is based on the learning of one dictionary for the fibrillation and one for the ventricular activity, both of them learnt on the patient's ECG.Cette thèse propose des algorithmes rapides pour les représentations parcimonieuses. Les représentations parcimonieuses consistent à approcher le signal par une combinaison linéaire de peu d'atomes choisis dans un dictionnaire redondant (plus d'atomes que la dimension du signal). Comment décomposer un signal donné sur un dictionnaire donné ? C'est un problème NP-complet. Les algorithmes approchés existants sont trop coûteux pour être employés sur de grands signaux ou bien calculent une approximation grossière. Nous proposons un nouvel algorithme, LocOMP, qui passe à l'échelle sans sacrifier la qualité d'approximation. LocOMP nécessite des dictionnaires locaux : la longueur du support d'un atome est petite devant celle du signal. Comment apprendre un dictionnaire qui permet la représentation parcimonieuse d'une famille de signaux donnée ? C'est un problème encore plus complexe : on le résout habituellement en itérant plusieurs décompositions parcimonieuses. Nous proposons une amélioration de l'algorithme d'Olshausen-Field qui optimise le dictionnaire par descente de gradient à pas fixe. Nous exprimons le pas optimal la descente. L'algorithme converge ainsi plus vite vers un meilleur dictionnaire. Enfin, nous avons appliqué ces outils pour isoler les signaux de fibrillation atriale dans l'électrocardiogramme du patient. La fibrillation atriale est une arythmie cardiaque : les atria tremblent au lieu de battre. On souhaite observer la fibrillation dans l'ECG, mais elle est mélangée à l'activité ventriculaire. Notre méthode de séparation est basée sur l'apprentissage d'un dictionnaire pour la fibrillation et un pour l'activité ventriculaire, tous deux appris sur le même ECG

    Mise à jour d'une base de connaissances possibiliste à l'aide de règles de transition eventuellement incertaines

    No full text
    International audienceDans cet article, la connaissance partielle disponible des évolutions possibles d'un système dynamique est représentée par un ensemble de paires & formules propositionnelles: Si la première est vraie alors la seconde sera vraie a l'étape suivante. Plus généralement, un niveau de certitude, exprimé en termes de mesure de nécessité, peut être associé a la seconde formule. Un graphe de transition possibiliste reliant les états possibles peut Ître déduit de ces paires et utilisé pour mettre a jour une base de connaissances incertaine, également représentée dam le cadre de la logique possibiliste, et associée a une distribution de possibilité sur les états. La mise a jour peut également s'effectuer directement au niveau syntaxique a partir des paires décrivant les transitions et les formules de la base. Comme de nombreux ensembles de paires peuvent décrire le même graphe, on s'intéresse au représentant de cette classe qui donne les calculs syntaxiques les plus simples. Enfin, on peut affiner la représeniation des transitions en utilisant une seconde fonction & transition. On obtient ainsi une description bipolaire, encodée d'une part par ûLés paires associées a des degrés de nécessité décrivant ce qui n'est pas impossible, et d'autre partpar des paires associées a des degrés de possibilité garantie indiquant Les éventualités les plus couramment observées
    corecore