12 research outputs found

    Fast GPU-Based Approach to Branchless Distance-Driven Projection and Back-Projection in Cone Beam CT

    Get PDF
    Modern CT image reconstruction algorithms rely on projection and back-projection operations to refine an image estimate in iterative image reconstruction. A widely-used state-of-the-art technique is distance-driven projection and back-projection. While the distance-driven technique yields superior image quality in iterative algorithms, it is a computationally demanding process. This has a detrimental effect on the relevance of the algorithms in clinical settings. A few methods have been proposed for enhancing the distance-driven technique in order to take advantage of modern computer hardware. This study explores a two-dimensional extension of the branchless method, which is a technique that does not compromise image quality. The extension of the branchless method is named “pre-projection integration” because it gets a performance boost by integrating the data before the projection and back-projection operations. It was written with Nvidia’s CUDA framework and carefully designed for massively parallel graphics processing units (GPUs). The performance and the image quality of the pre-projection integration method were analyzed. Both projection and back-projection are significantly faster with pre-projection integration. The image quality was analyzed using cone beam CT image reconstruction algorithms within Jeffrey Fessler’s Image Reconstruction Toolbox. Images produced from regularized, iterative image reconstruction algorithms using the pre-projection integration method show no significant artifacts

    Extension et validation de bGPUMCD, un algorithme de calcul de dose Monte Carlo pour la curiethérapie implémenté sur processeur graphique

    Get PDF
    Le présent mémoire présente les récents travaux de développement d’un algorithme de calcul de dose monte carlo en brachythérapie implémenté sur GPU (bGPUMCD, GPU Monte CarloDose for brachytherapy) ainsi que la validation des résultats et de la performance de celui-ci en vue d’une utilisation clinique future pour les cas de curiethérapie HDR et d’une utilisation académique permettant de remplacer l’utilisation de codes Monte Carlo plus lents dans le domaine académique. Les cas de test définis par le Groupe de travail sur les algorithmes de calcul de dose en curiethérapie (WG-DCAB, Working Group on Dose Calculation Algorithmsin Brachytherapy)[1] et quatre cas de patients cliniques représentant des sites de traitement représentatifs sont utilisés pour explorer la précision, la vitesse et les limites de l’algorithme dans une multitude de contextes. bGPUMCD est comparé aux résultats de calcul de dose provenant de plusieurs codes Monte Carlo tel que MCNP6 et ALGEBRA[2]. Les résultats obtenus par bGPUMCD sont dans les limites d’incertitudes requises par les recommandations du Rapport du Groupe de Travail No.186 de l’AAPM (TG-186, Report on the Task GroupNo.43)[3]. Une simulation en situation de Rapport du Groupe de Travail No.43 de l’AAPM(TG-43, Report on the Task Group No.43)[4] a été effectuée pour trois modèles de source et les fonctions () et (, ) obtenues correspondent avec une erreur de 2 % aux valeurs de référence à l’exception des grands angles. Nous démontrons aussi que bGPUMCD est capable de simuler une dose cliniquement équivalente à un code Monte Carlo de référence en une fraction du temps ; en fonction des différents paramètres pouvant modifier le temps de calcul, bGPUMCD permet d’obtenir un résultat équivalent à la dose de référence avec un temps de calcul se trouvant entre quelques secondes à quelques minutes par rapport à plusieurs heures pour ALGEBR

    Développement d'algorithmes de reconstruction statistique appliqués en tomographie rayons-X assistée par ordinateur

    Get PDF
    La tomodensitométrie (TDM) permet d'obtenir, et ce de façon non invasive, une image tridimensionnelle de l'anatomie interne d'un sujet. Elle constitue l'évolution logique de la radiographie et permet l'observation d'un volume sous différents plans (sagittal, coronal, axial ou n'importe quel autre plan). La TDM peut avantageusement compléter la tomographie d'émission par positrons (TEP), un outil de prédilection utilisé en recherche biomédicale et pour le diagnostic du cancer. La TEP fournit une information fonctionnelle, physiologique et métabolique, permettant la localisation et la quantification de radiotraceurs à l'intérieur du corps humain. Cette dernière possède une sensibilité inégalée, mais peut néanmoins souffrir d'une faible résolution spatiale et d'un manque de repère anatomique selon le radiotraceur utilisé. La combinaison, ou fusion, des images TEP et TDM permet d'obtenir cette localisation anatomique de la distribution du radiotraceur. L'image TDM représente une carte de l'atténuation subie par les rayons-X lors de leur passage à travers les tissus. Elle permet donc aussi d'améliorer la quantification de l'image TEP en offrant la possibilité de corriger pour l'atténuation. L'image TDM s'obtient par la transformation de profils d'atténuation en une image cartésienne pouvant être interprétée par l'humain. Si la qualité de cette image est fortement influencée par les performances de l'appareil, elle dépend aussi grandement de la capacité de l'algorithme de reconstruction à obtenir une représentation fidèle du milieu imagé. Les techniques de reconstruction standards, basées sur la rétroprojection filtrée (FBP, filtered back-projection), reposent sur un modèle mathématiquement parfait de la géométrie d'acquisition. Une alternative à cette méthode étalon est appelée reconstruction statistique, ou itérative. Elle permet d'obtenir de meilleurs résultats en présence de bruit ou d'une quantité limitée d'information et peut virtuellement s'adapter à toutes formes de géométrie d'acquisition. Le présent mémoire se consacre à l'étude de ces algorithmes statistiques en imagerie TDM et à leur implantation logicielle. Le prototype d'imageur TEP/TDM basé sur la technologie LabPET[indice supérieur TM] de l'Université de Sherbrooke possède tous les pré-requis pour bénéficier de ces nombreux avantages

    A Fast, Cache-Aware Algorithm for the Calculation of Radiological Paths Exploiting Subword Parallelism

    No full text
    The calculation of radiological paths is the most important part in statistical positron emission tomography image reconstruction algorithms. We present a new, faster algorithm which replaces Siddon's. Further code transformations on this algorithm prove to be beneficial in a Maximum Likelihood - Expectation Maximization reconstruction algorithm and the result is perfectly suitable for an implementation that exploits the VISual instruction set from Sun or other modern architectural extensions providing subword parallelism. The final speed-up achieved with this new algorithm and its subword parallel implementation is 13. Though smaller data formats are used in subword parallelism, the resulting images are as good as the original ones.

    Evaluation of speed of sound aberration and correction for ultrasound guided radiation therapy

    Get PDF

    Interactieve lijstmode reconstructie voor co

    Get PDF

    Contribution aux méthodes de reconstruction d'images appliquées à la tomographie d'émission par positrons par l'exploitation des symétries du système

    Get PDF
    Le désir d’atteindre une haute résolution spatiale en imagerie médicale pour petits animaux conduit au développement d’appareils composés de détecteurs de plus en plus petits. Des appareils s’approchant de la résolution théorique maximale en tomographie d’émission par positrons (TEP) sont à nos portes. Pour retirer le maximum d’information de ces appareils, il importe d’utiliser des méthodes de traitement évoluées qui prennent en considération l’ensemble des phénomènes physiques entourant la prise de mesure en TEP. Le problème est d’autant plus complexe à résoudre du fait que ces caméras sont composées de milliers de détecteurs qui donnent lieu à des millions de lignes de réponses mesurées pouvant alors être traitées par un algorithme de reconstruction d’images. Cette situation mène à des problèmes de reconstruction d’images en 3 dimensions (3D) qui sont difficiles à résoudre principalement à cause des limites en ressources mémoires et de calcul des ordinateurs modernes. Les travaux réalisés dans le cadre de cette thèse répondent à deux grands besoins relatifs au domaine de la reconstruction d’images en TEP, soit l'atteinte d'une meilleure qualité d'image et l'accélération des calculs menant à l'obtention de celle-ci. Le premier volet des travaux repose sur le l'élaboration de méthodes de modélisation 3D précises du processus d’acquisition en TEP permettant d'atteindre une meilleure qualité d’image. Ces modèles 3D s'expriment sous forme de matrices systèmes qui sont utilisées par un algorithme de reconstruction d'images. Pour générer ces modèles 3D pour la TEP, des méthodes de calculs analytiques et basées sur des simulations Monte Carlo (MC) ont été développées. Des méthodes hybrides, basé sur des stratégies analytiques et Monte Carlo, ont également été mises en œuvre afin de combiner les avantages des deux approches. Les méthodes proposées se distinguent de l'art antérieur en ce qu'elles tirent profit des symétries du système afin de réduire considérablement le temps de calcul requis pour l'obtention de matrices 3D précises. Pour l’approche analytique, le calcul de la matrice est divisé en diverses étapes qui favorisent la réutilisation de modèles pré-calculés entre les lignes de réponses symétriques de l’appareil. Pour l’approche par simulations MC, la réutilisation des événements MC collectés entre les lignes de réponse symétriques de l’appareil permet d’augmenter la statistique utilisée pour générer la matrice MC et du même coup de réduire le temps de simulation. La méthode hybride proposée permet de réduire encore davantage le temps de simulation MC et cela, sans faire de compromis sur la qualité de la matrice système. Le second volet des travaux repose sur le développement de nouvelles méthodes de reconstruction d’images basées sur un référentiel en coordonnées cylindriques permettant de réduire les contraintes d’espace mémoire et d'accélérer les calculs menant à l’image. Ces méthodes se divisent en deux catégories distinctes. Les premières sont des méthodes dites itératives qui permettent de résoudre le problème de reconstruction d’images par un processus itératif qui réalise une nouvelle estimation de l’image à chaque itération de façon à maximiser le degré de vraisemblance entre l’image et la mesure de l’appareil. Les secondes sont des méthodes dites directes qui permettent de résoudre le problème en inversant la matrice système qui relie l’image à la mesure de projections par une décomposition en valeurs singulières (DVS) de la matrice. La matrice inverse ainsi obtenue peut alors être multipliée directement avec la mesure pour obtenir l’image reconstruite. L’utilisation d’une image en coordonnées cylindriques entraîne une redondance au niveau des coefficients de la matrice système obtenue. En exploitant ces redondances, il est possible d’obtenir une matrice système avec une structure dite bloc circulante qui peut alors être transformée dans le domaine de Fourier afin d’accélérer les calculs lors du processus de reconstruction d’images itératif ou par DVS. De plus, pour la méthode par DVS, l’utilisation d’une matrice bloc circulante factorisée facilite grandement la procédure d'inversion de la matrice par DVS, ce qui rend l’application de la méthode possible pour des problèmes de reconstruction d’images en 3D. Or, la résolution de problèmes aussi complexes n’était jusqu’ici pas possible avec les méthodes par DVS de l’art antérieur dû aux contraintes d’espace mémoire et à la charge excessive de calcul. En somme, les travaux combinés ont pour objectif ultime de réunir à la fois la vitesse de calcul et une qualité d'image optimale en un même algorithme afin de créer un outil de reconstruction 3D idéal pour l'utilisation dans un contexte clinique

    On-belt Tomosynthesis: 3D Imaging of Baggage for Security Inspection

    Get PDF
    This thesis describes the design, testing and evaluation of `On-belt Tomosynthesis' (ObT): a cost-e ective baggage screening system based on limited angle digital x-ray tomosynthesis and close-range photogrammetry. It is designed to be retro tted to existing airport conveyor-belt systems and to overcome the limitations of current systems creating a pseudo-3D imaging system by combining x-ray and optical imaging to form digital tomograms. The ObT design and set-up consists of a con guration of two x-ray sources illuminating 12 strip detectors around a conveyor belt curve forming an 180 arc. Investigating the acquired ObT x-ray images' noise sources and distortions, improvements were demonstrated using developed image correction methods. An increase of 45% in image uniformity was shown as a result, in the postcorrection images. Simulation image reconstruction of objects with lower attenuation coe cients showed the potential of ObT to clearly distinguish between them. Reconstruction of real data showed that objects of bigger attenuation di erences (copper versus perspex, rather than air versus perspex) could be observed better. The main conclusion from the reconstruction results was that the current imaging method needed further re nements, regarding the geometry registration and the image reconstruction. The simulation results con rmed that advancing the experimental method could produce better results than the ones which can currently be achieved. For the current state of ObT, a standard deviation of 2 mm in (a) the source coordinates, and 2 in (b) the detector angles does not a ect the image reconstruction results. Therefore, a low-cost single camera coordination and tracking solution was developed to replace the previously used manual measurements. Results obtained by the developed solution showed that the necessary prerequisites for the ObT image reconstruction could be addressed. The resulting standard deviation was of an average of 0.4 mm and 1 degree for (a) and (b) respectively
    corecore