131 research outputs found

    A Log-Euclidean and Total Variation based Variational Framework for Computational Sonography

    Get PDF
    We propose a spatial compounding technique and variational framework to improve 3D ultrasound image quality by compositing multiple ultrasound volumes acquired from different probe orientations. In the composite volume, instead of intensity values, we estimate a tensor at every voxel. The resultant tensor image encapsulates the directional information of the underlying imaging data and can be used to generate ultrasound volumes from arbitrary, potentially unseen, probe positions. Extending the work of Hennersperger et al., we introduce a log-Euclidean framework to ensure that the tensors are positive-definite, eventually ensuring non-negative images. Additionally, we regularise the underpinning ill-posed variational problem while preserving edge information by relying on a total variation penalisation of the tensor field in the log domain. We present results on in vivo human data to show the efficacy of the approach.Comment: SPIE Medical Imaging 201

    Lung nodule modeling and detection for computerized image analysis of low dose CT imaging of the chest.

    Get PDF
    From a computerized image analysis prospective, early diagnosis of lung cancer involves detection of doubtful nodules and classification into different pathologies. The detection stage involves a detection approach, usually by template matching, and an authentication step to reduce false positives, usually conducted by a classifier of one form or another; statistical, fuzzy logic, support vector machines approaches have been tried. The classification stage matches, according to a particular approach, the characteristics (e.g., shape, texture and spatial distribution) of the detected nodules to common characteristics (again, shape, texture and spatial distribution) of nodules with known pathologies (confirmed by biopsies). This thesis focuses on the first step; i.e., nodule detection. Specifically, the thesis addresses three issues: a) understanding the CT data of typical low dose CT (LDCT) scanning of the chest, and devising an image processing approach to reduce the inherent artifacts in the scans; b) devising an image segmentation approach to isolate the lung tissues from the rest of the chest and thoracic regions in the CT scans; and c) devising a nodule modeling methodology to enhance the detection rate and lend benefits for the ultimate step in computerized image analysis of LDCT of the lungs, namely associating a pathology to the detected nodule. The methodology for reducing the noise artifacts is based on noise analysis and examination of typical LDCT scans that may be gathered on a repetitive fashion; since, a reduction in the resolution is inevitable to avoid excessive radiation. Two optimal filtering methods are tested on samples of the ELCAP screening data; the Weiner and the Anisotropic Diffusion Filters. Preference is given to the Anisotropic Diffusion Filter, which can be implemented on 7x7 blocks/windows of the CT data. The methodology for lung segmentation is based on the inherent characteristics of the LDCT scans, shown as distinct bi-modal gray scale histogram. A linear model is used to describe the histogram (the joint probability density function of the lungs and non-lungs tissues) by a linear combination of weighted kernels. The Gaussian kernels were chosen, and the classic Expectation-Maximization (EM) algorithm was employed to estimate the marginal probability densities of the lungs and non-lungs tissues, and select an optimal segmentation threshold. The segmentation is further enhanced using standard shape analysis based on mathematical morphology, which improves the continuity of the outer and inner borders of the lung tissues. This approach (a preliminary version of it appeared in [14]) is found to be adequate for lung segmentation as compared to more sophisticated approaches developed at the CVIP Lab (e.g., [15][16]) and elsewhere. The methodology developed for nodule modeling is based on understanding the physical characteristics of the nodules in LDCT scans, as identified by human experts. An empirical model is introduced for the probability density of the image intensity (or Hounsfield units) versus the radial distance measured from the centroid – center of mass - of typical nodules. This probability density showed that the nodule spatial support is within a circle/square of size 10 pixels; i.e., limited to 5 mm in length; which is within the range that the radiologist specify to be of concern. This probability density is used to fill in the intensity (or Hounsfield units) of parametric nodule models. For these models (e.g., circles or semi-circles), given a certain radius, we calculate the intensity (or Hounsfield units) using an exponential expression for the radial distance with parameters specified from the histogram of an ensemble of typical nodules. This work is similar in spirit to the earlier work of Farag et al., 2004 and 2005 [18][19], except that the empirical density of the radial distance and the histogram of typical nodules provide a data-driven guide for estimating the intensity (or Hounsfield units) of the nodule models. We examined the sensitivity and specificity of parametric nodules in a template-matching framework for nodule detection. We show that false positives are inevitable problems with typical machine learning methods of automatic lung nodule detection, which invites further efforts and perhaps fresh thinking into automatic nodule detection. A new approach for nodule modeling is introduced in Chapter 5 of this thesis, which brings high promise in both the detection, and the classification of nodules. Using the ELCAP study, we created an ensemble of four types of nodules and generated a nodule model for each type based on optimal data reduction methods. The resulting nodule model, for each type, has lead to drastic improvements in the sensitivity and specificity of nodule detection. This approach may be used as well for classification. In conclusion, the methodologies in this thesis are based on understanding the LDCT scans and what is to be expected in terms of image quality. Noise reduction and image segmentation are standard. The thesis illustrates that proper nodule models are possible and indeed a computerized approach for image analysis to detect and classify lung nodules is feasible. Extensions to the results in this thesis are immediate and the CVIP Lab has devised plans to pursue subsequent steps using clinical data

    Time Series Anomaly Detection using Diffusion-based Models

    Full text link
    Diffusion models have been recently used for anomaly detection (AD) in images. In this paper we investigate whether they can also be leveraged for AD on multivariate time series (MTS). We test two diffusion-based models and compare them to several strong neural baselines. We also extend the PA%K protocol, by computing a ROCK-AUC metric, which is agnostic to both the detection threshold and the ratio K of correctly detected points. Our models outperform the baselines on synthetic datasets and are competitive on real-world datasets, illustrating the potential of diffusion-based methods for AD in multivariate time series.Comment: Accepted at the AI4TS workshop of the 23rd IEEE International Conference on Data Mining (ICDM 2023), 9 pages, 7 figures, 2 table

    Department of Computer Science Activity 1998-2004

    Get PDF
    This report summarizes much of the research and teaching activity of the Department of Computer Science at Dartmouth College between late 1998 and late 2004. The material for this report was collected as part of the final report for NSF Institutional Infrastructure award EIA-9802068, which funded equipment and technical staff during that six-year period. This equipment and staff supported essentially all of the department\u27s research activity during that period

    Proceedings of the First International Workshop on Mathematical Foundations of Computational Anatomy (MFCA'06) - Geometrical and Statistical Methods for Modelling Biological Shape Variability

    Get PDF
    International audienceNon-linear registration and shape analysis are well developed research topic in the medical image analysis community. There is nowadays a growing number of methods that can faithfully deal with the underlying biomechanical behaviour of intra-subject shape deformations. However, it is more difficult to relate the anatomical shape of different subjects. The goal of computational anatomy is to analyse and to statistically model this specific type of geometrical information. In the absence of any justified physical model, a natural attitude is to explore very general mathematical methods, for instance diffeomorphisms. However, working with such infinite dimensional space raises some deep computational and mathematical problems. In particular, one of the key problem is to do statistics. Likewise, modelling the variability of surfaces leads to rely on shape spaces that are much more complex than for curves. To cope with these, different methodological and computational frameworks have been proposed. The goal of the workshop was to foster interactions between researchers investigating the combination of geometry and statistics for modelling biological shape variability from image and surfaces. A special emphasis was put on theoretical developments, applications and results being welcomed as illustrations. Contributions were solicited in the following areas: * Riemannian and group theoretical methods on non-linear transformation spaces * Advanced statistics on deformations and shapes * Metrics for computational anatomy * Geometry and statistics of surfaces 26 submissions of very high quality were recieved and were reviewed by two members of the programm committee. 12 papers were finally selected for oral presentations and 8 for poster presentations. 16 of these papers are published in these proceedings, and 4 papers are published in the proceedings of MICCAI'06 (for copyright reasons, only extended abstracts are provided here)

    De la neurochirurgie guidée par l'image,<br />au processus neurochirurgical assisté par la connaissance et l'information

    No full text
    La totalité des services français de neurochirurgie est aujourd'hui équipée de systèmes de neuronavigation. Ces systèmes de chirurgie guidée par l'image permettent le lien direct entre le patient, en salle d'opération, et ses images pré opératoires ; c'est-à-dire que le neurochirurgien, en salle d'opération et à tout instant, connaît, à partir d'un point désigné sur le patient par un outil, le point correspondant dans ses images d'IRM ou de Scanner X. Ceci est possible grâce à des localisateurs tridimensionnels et des logiciels de recalage d'images. Les bénéfices de tels systèmes pour le patient ont déjà été montrés. Ils rendent notamment la chirurgie plus sûre et moins invasive.Il est important de considérer le concept de chirurgie guidée par l'image comme un processus qui ne se réduit pas à la seule étape de réalisation du geste chirurgical. Depuis près d'une dizaine d'années, il existe un consensus sur l'importance de l'étape de préparation pour anticiper la réalisation du geste. Ce processus peut aussi inclure des étapes de choix de la stratégie chirurgicale, de simulation ou de répétition du geste et de suivi post opératoire du patient. Chaque étape de ce processus se fonde sur des observations liées au patient, comme ses images pré opératoires, sur des connaissances génériques explicites, comme des livres ou des atlas numériques d'anatomie, et sur des connaissances implicites résultant de l'expérience du chirurgien. Malgré cela, dans les systèmes actuels de chirurgie guidée par l'image, la seule information explicite utilisée est, le plus souvent, réduite à une simple imagerie anatomique. Alors que si l'on introduisait dans ces systèmes les images multimodales du patient, on prendrait mieux en compte la complexité anatomique, physiologique et métabolique des structures cérébrales. Sans compter que dans ces systèmes, la préparation de la procédure chirurgicale se réduit principalement à la définition de la cible et d'une trajectoire d'accès rectiligne. Si l'on considérait la procédure comme une succession d'étapes et d'actions, on permettrait au neurochirurgien de mieux préparer et, donc, de mieux réaliser son geste. Son savoir-faire implicite pourrait être explicité. Enfin, ces systèmes ne tiennent pas compte des déformations anatomiques intra opératoires dues, notamment, au geste chirurgical. Ainsi, les images pré opératoires du patient deviennent rapidement obsolètes et ne correspondent plus à la réalité anatomique du patient.Il existe donc un fossé entre la chirurgie telle qu'elle est vue par ces systèmes et la réalité chirurgicale. C'est ce fossé que je cherche à combler.Mes travaux de recherche se situent dans le domaine du génie biologique et médical. Ils incluent des aspects liés au traitement d'images et à l'informatique médicale. Le domaine d'application est la neurochirurgie. Les méthodes mises en oeuvre dans les travaux que je présenterai s'appuient sur un concept de coopération entre observations et connaissances. Ainsi, sur l'aspect observations, je présenterai l'introduction d'images multimodales du patient, dans le processus chirurgical, qu'elles soient pré ou intra opératoires. Sur l'aspect connaissances, je présenterai une démarche qui permet de formaliser certaines connaissances relatives à la neurochirurgie.La méthodologie de recherche que j'ai utilisée suit une approche itérative, où l'application clinique est centrale. A partir des connaissances médicales, les spécifications d'un nouveau projet sont définies. Ces spécifications entraînent le développement de nouvelles méthodes et leur implémentation par le biais d'un prototype d'application. Ce prototype permet, grâce àune utilisation pré clinique, d'évaluer ces méthodes. Cette implémentation et cette phase d'utilisation autorisent aussi un retour vers la méthode, pour vérifier la pertinence des choix réalisés et pour contribuer à son amélioration. Enfin, cette boucle permet une validation des connaissances initiales et un possible enrichissement de celles-ci. Les objectifs de mes recherches sont donc, à la fois, l'élaboration de nouveaux systèmes d'intérêt thérapeutique et la génération de nouvelles connaissances chirurgicales.Ce document aborde trois domaines principaux : la neurochirurgie guidée par l'image, la neurochirurgie guidée par l'information et la validation des outils de traitement d'images médicales en chirurgie guidée par l'image. Pour chacun de ces domaines, je présenterai le contexte et l'état de l'art, les contributions personnelles apportées au domaine et ses perspectives d'évolution.Dans le premier chapitre, je présenterai comment l'imagerie médicale peut assister la chirurgie. Pour cela, j'introduirai les méthodes de traitement d'images, plus particulièrement le recalage et la fusion d'images médicales. Ces dernières sont incontournables en neurochirurgie guidée par l'image, le principe même de ce type de chirurgie étant cette mise en correspondance géométrique entre repère des images et repère du patient. Puis, je présenterai le principe du processus chirurgical assisté par l'image, en décrivant les différentes étapes mises en jeu dans un tel processus. Je présenterai mes contributions : 1) l'introduction du concept de neuronavigation multimodale et multi informationnelle, et 2) l'introduction du concept de virtualité augmentée, en complément aux approches de réalité augmentée.Dans le deuxième chapitre, je présenterai le concept récent de chirurgie guidée par l'information, qui s'appuie sur une formalisation du processus chirurgical et des connaissances associées. Nous verrons que ce processus peut être étudié selon différents angles, chaque angle d'étude correspondant à un objectif applicatif précis. Je présenterai une méthodologie complète permettant supervision et apprentissage par : 1) la prise en compte, dans le processus de chirurgie guidée par l'image multimodale, de certaines connaissances implicites du chirurgien, notamment liées à son expertise chirurgicale, en les rendant explicites, et 2) la génération de connaissances sur la chirurgie.Les deux premiers chapitres démontrent comment il peut être intéressant de faire coopérer images et connaissances. Dans le troisième chapitre, nous proposerons d'appliquer ce concept de coopération entre observations et connaissances au contexte des déformations anatomiques intra opératoires. Nous montrerons la complexité de ce phénomène, et de ses causes, et les limites des méthodes présentées dans la littérature. Nous décrirons succinctement comment ce concept pourra être appliqué dans le cadre d'un projet de recherche qui débute.Dans le quatrième chapitre, j'insisterai sur l'importance de la validation des outils de traitement d'images en chirurgie guidée par l'image. J'introduirai la terminologie et la méthodologie liées à la validation principalement technique des outils de traitement d'images, en soulignant le besoin de standardisation. Je présenterai mes contributions au domaine : la définition d'une méthodologie standardisée pour la validation des méthodes de recalage d'images médicales, basée sur la comparaison avec une référence.Je terminerai, dans le cinquième chapitre, par une ébauche de description des évolutions à court et à long terme de la chirurgie, s'inspirant des réflexions et résultats des chapitres précédents

    Construction of Physics-based brain atlas and its application

    Get PDF
    Ph.DDOCTOR OF PHILOSOPH
    corecore