61 research outputs found

    Développement d’un outil d’optimisation de la dose aux organes en fonction de la qualité image pour l’imagerie scanographique

    Get PDF
    Due to the significant rise of computed tomography (CT) exams in the past few years and the increase of the collective dose due to medical exams, dose estimation in CT imaging has become a major public health issue. However dose optimization cannot be considered without taking into account the image quality which has to be good enough for radiologists. In clinical practice, optimization is obtained through empirical index and image quality using measurements performed on specific phantoms like the CATPHAN®. Based on this kind of information, it is thus difficult to correctly optimize protocols regarding organ doses and radiologist criteria. Therefore our goal is to develop a tool allowing the optimization of the patient dose while preserving the image quality needed for diagnosis. The work is divided into two main parts: (i) the development of a Monte Carlo dose simulator based on the PENELOPE code, and (ii) the assessment of an objective image quality criterion. For that purpose, the GE Lightspeed VCT 64 CT tube was modelled with information provided by the manufacturer technical note and by adapting the method proposed by Turner et al (Med. Phys. 36: 2154-2164). The axial and helical movements of the X-ray tube were then implemented into the MC tool. To improve the efficiency of the simulation, two variance reduction techniques were used: a circular and a translational splitting. The splitting algorithms allow a uniform particle distribution along the gantry path to simulate the continuous gantry motion in a discrete way. Validations were performed in homogeneous conditions using a home-made phantom and the well-known CTDI phantoms. Then, dose values were measured in CIRS ATOM anthropomorphic phantom using both optically stimulated luminescence dosimeters for point doses and XR-QA Gafchromic® films for relative dose maps. Comparisons between measured and simulated values enabled us to validate the MC tool used for dosimetric purposes. Finally, organ doses for several acquisition parameters into the ICRP 110 numerical female phantoms were simulated in order to build a dosimetric data base which could be used in clinical practice. In parallel to this work, image quality was first studied using the CATPHAN® 600. From the CTP 404 inserts, the signal-to-noise ratio (SNR) was then computed by using the classical Rose model (J. Opt. Soc. Am. A 16:633-645). An extensive number of images, linked to several acquisitions setups, were analyzed and SNR variations studied. Acquisitions with a SNR closed to the Rose criterion were selected. New acquisitions, based on those selected, were performed with a pre-clinical phantom containing suspect structures in PMMA. These images were presented to two senior radiologists. Both of them reviewed all images and indicated if they were able to locate the structures or not using a 5 confidence levels scale. Two ROC curves were plotted to compare the detection ability if the bead was detectable (SNR > 5) or not. Results revealed a significant difference between the two types of image and thus demonstrated the Rose criterion potential for image quality quantification in CT. Ultimately, organ dose estimations were linked to SNR values through acquisition parameters. Preliminary results proved that an optimization can be performed using the Rose criterion and organ dose estimation, leading to a dose reduction by a factor up to 6.Ces dernières années, la multiplication du nombre d’actes d’imagerie scanographique a eu pour conséquence l’augmentation de la dose collective due aux examens d’imagerie médicale. La dose au patient en imagerie scanographique est donc devenue un enjeu de santé publique majeur impliquant l’optimisation des protocoles d’examen, ces derniers devant tenir compte de la qualité image, indispensable aux radiologues pour poser leur diagnostic. En pratique clinique, l’optimisation est réalisée à partir d’indicateurs empiriques ne donnant pas accès à la dose aux organes et la qualité image est mesurée sur des fantômes spécifiques, tel que le fantôme CATPHAN®. Sans aucune information sur la dose aux organes et aucun outil pour prendre en compte l’avis du praticien, il est difficile d’optimiser correctement les protocoles. Le but de ce travail de thèse est de développer un outil qui permettra l’optimisation de la dose au patient tout en préservant la qualité image nécessaire au diagnostic. Ce travail est scindé en deux parties : (i) le développement d’un simulateur de dose Monte Carlo (MC) à partir du code PENELOPE, et (ii) l’estimation d’un critère de qualité image objectif. Dans ce but, le scanner GE VCT Lightspeed 64 a été modélisé à partir des informations fournies dans la note technique du constructeur et en adaptant la méthode proposée par Turner et al (Med. Phys. 36:2154-2164). Les mouvements axial et hélicoïdal du tube ont été implémentés dans l’outil MC. Pour améliorer l’efficacité de la simulation, les techniques de réduction de variance dites de splitting circulaire et longitudinal ont été utilisées. Ces deux réductions de variances permettent de reproduire le mouvement uniforme du tube le long de l’axe du scanner de manière discrète. La validation expérimentale de l’outil MC a été réalisée dans un premier temps en conditions homogènes avec un fantôme fabriqué au laboratoire et le fantôme CTDI, habituellement utilisé en routine clinique pour les contrôles qualité. Puis, la distribution de la dose absorbée dans le fantôme anthropomorphe CIRS ATOM, a été mesurée avec des détecteurs OSL et des films Gafchromic® XR-QA2. Ensuite, la dose aux organes a été simulée pour différentes acquisitions dans le fantôme femme de la CIPR 110 afin de créer une base de données utilisable en clinique. En parallèle, la qualité image a été étudiée en utilisant le fantôme CATPHAN® 600. A partir du module CTP 404, le rapport signal sur bruit (SNR pour signal to noise ratio) a été calculé en utilisant le modèle développé par Rose (J. Opt. Soc. Am. A 16:633-645). Un grand nombre d’images, correspondant à différents paramètres d’acquisition et de reconstruction, ont été analysées afin d’étudier les variations du SNR. Les acquisitions avec un SNR proche du critère de Rose ont été sélectionnées pour permettre des nouvelles acquisitions avec un fantôme préclinique contenant des petites structures suspectes en PMMA de différents diamètres. Ces images ont été analysées par deux radiologues expérimentés. Sur chaque image, ils devaient déterminer si une anomalie était présente ou non et indiquer leur niveau de confiance sur leur choix. Deux courbes ROC ont ainsi été obtenues : une pour les anomalies dites « détectables » par le critère de Rose (SNR > 5), et une pour les anomalies dites « non-détectables ». L’analyse des courbes montre que les deux radiologues détectent plus facilement les lésions suspectes lorsque que le critère de Rose est satisfait, démontrant le potentiel du modèle de Rose dans l’évaluation de la qualité image pour les tâches cliniques de détection. En conclusion, à partir des paramètres d’acquisition, la dose aux organes a été corrélée à des valeurs de SNR. Les premiers résultats prouvent qu’il est possible d’optimiser les protocoles en utilisant la dose aux organes et le critère de Rose, avec une réduction de la dose pouvant aller jusqu’à un facteur 6

    Réalisation d'un système de triangulation au laser dans le cadre d'applications dans le domaine de l'agroalimentaire

    Get PDF
    L'automatisation dans le domaine de l'agroalimentaire et plus particulièrement dans les salles de découpe pour les viandes de porc et de boeuf est peu implantée. Dû à la difficulté de traiter un produit aussi variable, il est difficile de créer des machines automatiques pour réaliser la découpe de pièce de viandes. De plus, les cadences très importantes en Amérique du Nord conjuguées avec des types de coupe qui peuvent varier d'un établissement à l'autre compte tenu de la clientèle (américaine, canadienne, asiatique,...) rendent très difficile l'automatisation. Actuellement, la coupe, que ce soit pour le porc ou le boeuf, est encore très largement effectuée à la main. L'objectif principal de ce présent mémoire est de mettre au point un système d'acquisition pour numériser des pièces de viande, ce qui consiste à formuler la relation géométrique entre la caméra, le laser et la scène, à choisir le matériel adéquat, à élaborer le logiciel nécessaire et à intégrer l'ensemble des composantes du système. L'information est générée sous forme d'images de topologie (3D) et en niveaux de gris (2D). L'application d'algorithmes de traitement d'images sur ces données permet de calculer une trajectoire qui permet par la suite de guider un outil de coupe pour effectuer une tâche spécifique. Le principe de base de ce système d'acquisition est la triangulation au laser. Une ligne lumineuse est projetée sur la scène à numériser. La déformation de la ligne par le relief est captée par une caméra. Connaissant la relation géométrique entre le laser et le capteur, l'analyse des variations de la ligne laser permet de trouver la hauteur et la position des objets dans la scène. Afin de numériser différentes pièces de viande, le système d'acquisition doit être modulaire. Les composantes doivent donc être des produits standards, ce qui a l'avantage de réduire les temps de développement lors de modifications, de suivre l'évolution technologique de chaque composante ainsi que de permettre d'avoir des équivalents chez d'autres fournisseurs pour faciliter la production. Pour l'étalonnage de ce système, une approche est proposée qui, malgré sa simplicité, procure la précision et la répétitivité suffisantes dans le contexte des applications à réaliser. Pour respecter les temps de cycle, différentes solutions techniques ont été proposées comme l'acquisition en « double buffering » 1 , le filtrage de la ligne laser avec des filtres optiques et l'utilisation d'une caméra avec acquisition partielle. Trois applications développées avec ce système d'acquisition permettent l'évaluation de ce dernier. La première évalue de façon quantitative l'approche proposée en analysant la répétitivité de la machine de séparation de la longe du flanc. La deuxième utilise les données générées (images de topologie et en niveaux de gris) pour discriminer le côté (droit ou gauche) du flanc avant de générer la trajectoire de coupe. L'évaluation est faite de façon qualitative en analysant les résultats de la classification. La dernière, la reconstruction de la surface d'un oail de ronde en vue de son dégraissage, confirme la pertinence d'utiliser un tel système d'acquisition pour développer des machines ayant des opérations complexes à automatiser. La triangulation au laser répond bien à la demande en automatisation de cette industrie de par son coût mais surtout au vu de ses performances: vitesse, précision et répétitivité, richesse et densité de l'information qui permettent d'élaborer des algorithmes de traitement d'images appropriés au domaine d'application. 1 Utilisation d'une bascule avec deux images: pendant la numérisation d'une image, l'autre est traitée et vice versa

    MĂ©thodes d'apprentissage de la coordination multiagent : application au transport intelligent

    Get PDF
    Les problèmes de prise de décisions séquentielles multiagents sont difficiles à résoudre surtout lorsque les agents n'observent pas parfaitement l'état de Y environnement. Les approches existantes pour résoudre ces problèmes utilisent souvent des approximations de la fonction de valeur ou se basent sur la structure pour simplifier la résolution. Dans cette thèse, nous proposons d'approximer un problème de décisions séquentielles multiagent à observation limitée, modélisé par un processus décisionnel markovien décentralisé (DEC-MDP) en utilisant deux hypothèses sur la structure du problème. La première hypothèse porte sur la structure de comportement optimal et suppose qu'il est possible d'approximer la politique optimale d'un agent en connaissant seulement les actions optimales au niveau d'un petit nombre de situations auxquelles l'agent peut faire face dans son environnement. La seconde hypothèse porte, quant à elle, sur la structure organisationnelle des agents et suppose que plus les agents sont éloignés les uns des autres, moins ils ont besoin de se coordonner. Ces deux hypothèses nous amènent à proposer deux approches d'approximation. La première approche, nommée Supervised Policy Reinforcement Learning, combine l'apprentissage par renforcement et l'apprentissage supervisé pour généraliser la politique optimale d'un agent. La second approche se base, quant à elle, sur la structure organisationnelle des agents pour apprendre une politique multiagent dans des problèmes où l'observation est limitée. Pour cela, nous présentons un modèle, le D O F - D E C - M DP (Distance-Observable Factored Decentralized Markov Décision Process) qui définit une distance d'observation pour les agents. A partir de ce modèle, nous proposons des bornes sur le gain de récompense que permet l'augmentation de la distance d'observation. Les résultats empiriques obtenus sur des problèmes classiques d'apprentissage par renforcement monoagents et multiagents montrent que nos approches d'approximation sont capables d'apprendre des politiques proches de l'optimale. Enfin, nous avons testé nos approches sur un problème de coordination de véhicules en proposant une méthode de synchronisation d'agents via la communication dans un cadre à observation limitée

    Détermination de la maturité des avocats Hass par imagerie hyperspectrale

    Get PDF
    La maturité de l'avocat est établie habituellement en mesurant son contenu en matière sèche, un processus long et destructif. Le but de cette étude est d'introduire une technique rapide et non destructrice pour estimer le taux de matière sèche de ce fruit tropical. Des avocats de la variété « Hass » à différents stades de maturité et différentes couleurs de peau ont été analysés par imagerie hyperspectrale en mode réflectance et absorbance. La plage des taux de matière sèche s'étend de 19.8% à 42.5%. Les données hyperspectrales consistent en des spectres moyennes d'une zone du iruit acquis dans le visible et proche infrarouge (de 400nm à lOOOnm), pour un total de 163 bandes spectrales distinctes. La relation entre les spectres et les taux de matière sèche a été établie grâce à des techniques d'analyse chimiométrique, notamment la régression des moindres carrés partiels (PLS). Les statistiques de calibration et validation comme le coefficient de détermination (R^), et l'erreur quadratique moyenne de prédiction (RMSEP) ont été utilisés afin de comparer les capacités de prédiction des différents modèles. Les résultats des modélisations PLS portant sur plusieurs randomisations de la base de données, en utilisant le spectre dans son ensemble, donnent un R^ de 0.86 avec une erreur moyenne RMSEP de 2.45 en mode réflectance, ainsi qu'un R- moyen de 0.94 avec une erreur RMSEP moyenne de 1.59 pour le mode absorbance. Cela indique que des modèles raisormablement précis (R^>0.8) peuvent être obtenus pour l'évaluation du taux de matière sèche avec le spectre dans son entier. Cette étude montre également que les concepts de réducfion de bandes spectrales peuvent être appliqués à ce sujet. Partant de 163 bandes spectrales, le taux de matière sèche a pu être prédit avec les mêmes performances en utilisant 10%) des bandes initiales (16 bandes). Par conséquent cette étude démontre la faisabilité d'utiliser l'imagerie hyperspectrale dans le domaine du visible et proche infrarouge en mode absorbance, dans le but de détemiiner des propriétés physicochimiques, le taux de matière sèche dans notre étude, des avocats Hass de manière non destructive. En outre, cette étude donne des indices permettant de déterminer quelles bandes spectrales semblent être pertinentes à cette fin

    Identification du bâti à partir d'images satellitaires à très hautes résolutions spatiales

    Get PDF
    Résumé: L'urbanisation est un phénomène croissant qui touche l'ensemble du globe et qui a comme conséquence l'étalement des surfaces urbanisées. L'ampleur et la rapidité de cet étalement posent partout des problèmes socio-économiques et environnementaux. Pour réduire au maximum ces problèmes, les aménageurs ont besoin de données spatiales à intégrer aux outils de gestion et de planification. Dans ce contexte général, l'apparition des images satellitaires à Très Haute Résolution Spatiale (THRS) suscitent de fortes attentes. Ces images conjuguent en effet des résolutions spatiales fines, à des coûts raisonnables d'acquisition et à des courtes périodes de revisites. Les méthodes d'interprétation actuelles apparaissent cependant inadaptées à ces nouvelles images. À partir de cette problématique, l'objectif de notre recherche est identifié comme l'élaboration d'une méthode d'extraction semi-automatique des bâtiments à partir d'images THRS. Pour atteindre cet objectif, nous avons déterminé plusieurs étapes. Chacune d'elles est associée à un chapitre de cette thèse. Le premier chapitre expose le contexte général de notre recherche et conduit à l'identification de notre objectif. Nous présentons tout d'abord un bref historique de l'urbanisation avant de nous concentrer sur le phénomène d'étalement et sur les problèmes qu'il engendre. Nous nous intéressons ensuite à ce que la géographie peut apporter pour diminuer ces problèmes. Les positionnements conceptuels, théoriques et méthodologiques de l'analyse géographique des villes sont suivis d'une présentation des principaux outils de gestion et de planification urbaine. Il ressort un besoin croissant en données spatiales à intégrer à ces outils, besoin à partir duquel nous identifions notre objectif. Dans le second chapitre, nous vérifions la faisabilité de notre objectif à travers l'analyse des caractéristiques techniques des images puis des perturbations subies par le signal. La capacité des images à représenter fidèlement les objets urbains est ensuite abordée à travers les notions de qualité et d'interprétabilité des images. Les résultats confirment l'intérêt de l'utilisation des images satellitaires THRS pour l'analyse des objets urbains. Le troisième chapitre présente les phases préliminaires à l'élaboration de notre méthode d'extraction des bâtiments. Nous évaluons tout d'abord la qualité (géométrique et radiométrique) de l'image Ikonos support d'étude. Une revue des méthodes existantes fait ensuite ressortir une limite commune : la délimitation précise des bâtiments. Ce constat nous conduit à évaluer la qualité des méthodes de segmentation puis à réorienter nos choix méthodologiques. Le quatrième chapitre présente ce qui constitue le coeur de notre travail, à savoir le développement d'une méthode d'extraction du bâti. Après une formalisation rigoureuse des objectifs, nous présentons les principes théoriques de notre approche qui s'appuie sur une définition texturale des bâtiments. Le processus d'identification est basé sur la prise en compte conjointe, à l'aide d'un paramètre unique, de la variance du bâtiment et de celle de son entourage proche. Des informations additionnelles (présence d'ombre et de végétation) sont ensuite intégrées dans le but de diminuer les erreurs de commission. Le cinquième chapitre présente les résultats. Il montre la capacité de la méthode à identifier les bâtiments malgré certaines limites d'applicabilité, en particulier dans le cas des grands bâtiments et/ou dans les milieux hétérogènes. Des pistes d'améliorations sont proposées ainsi que des perspectives d'applications. Il ressort de ce travail que le principal apport tient dans l'originalité de l'approche théorique qui ouvre de nouvelles pistes de réflexion pour les travaux futurs.||Abstract: Urbanisation still remains one of the main problems worldwide. The extent and rapidity of the urban growth induce a number of socio-economic and environmental conflicts everywhere. In order to reduce these problems, urban planners need to integrate spatial information in planning tools. Actually high expectations are made on Very High Spatial Resolution imagery (VHSR). These high-spatial resolution images are available at a reasonable price and due to short revisit periods, they offer a high degree of actuality. However, interpretation methods seem not to be adapted to this new type of images. The aim of our study is to develop a new method for semi-automatic building extraction with VHSR. The different steps performed to achieve our objective are each presented in a chapter. In the first chapter, the general context of our research is described with the definition of our objective. After a short historical review of urbanisation, we focus on urban growth and associated problems. In the following we discuss the possible contributions of geography to reduce these problems. After discussing concepts, theories and methodologies of geographical analysis in urban areas, we present existing general urban planning tools. Finally, we show the special interest of our study that is due to a growing need to integrate spatial information in these decision support tools. In the second chapter we verify the possibility of reaching our objective by analysing the technical characteristics of the images, the noise and the distortions which affect the images. Quality and interpretability of the studied image is analysed in order to show the capacity of these image to represent urban objects as close to reality as possible. The results confirm the potential of VHSR Imagery for urban objects analysis. The third chapter deal with the preliminary steps necessary for the elaboration of our method of building extraction. First, we evaluate the quality of the Sherbrooke Ikonos image (geometric and radiometric quality), the basic image of our analysis. A review of existing methods clearly show a common limit: the detection of building boundaries. Consequently, we evaluate the efficiency of several segmentation methods that finally induces a change in our methodological approach. The fourth chapter contains the central part of our work, which consists in the development of a building extraction method. After strict formalisation of our, objectives, we present the theoretical principles of our approach based on textural buildings definition. In the identification process we use only one parameter that accounts at the same time for the variance of the building and the variance of its immediate surroundings. In the following, additional information (shadow and vegetation) is integrated to reduce commission errors. The last chapter exposes the results. They clearly show the capacity of our method for building identification. However, they show some limitations of application, especially on large size buildings and/or in heterogeneous areas. We also propose possible applications such as analysis of suburban buildings or detection of natural disaster damages. The main outcome of this work is the originality of our theoretical approach that encourages new reflections for future research

    Mise au point d'une méthode d'analyse multiélémentaire de métaux dans les tissus biologiques par spectrométrie de masse à plasma ICP

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    Reconstruction 3D d'environnement sous-marin par Sonar

    Get PDF
    L'Institut de recherche d'Hydro-Québec a développé un sous-marin d'inspection offrant au pilote une représentation virtuelle simultanée du site inspecté comme aide à la navigation. Souvent, le modèle de référence, incomplet, demande l'ajout de sections de géométries. Ce mémoire s'intéresse à trois aspects de la reconstruction d'objets en géométrie 3D: la prise de mesures référencées, leur structuration en une représentation 3D virtuelle et l'unification de segments de géométries afin d'obtenir un objet plus complet. La première partie du mémoire présente la problématique de la prise de mesures référencées, l'amélioration de leur qualité par certains types de filtres, et leur degré de précision. La seconde partie expose la problématique associée à la reconstruction d'objets et à leur représentation virtuelle surfacique. Finalement, des résultats (à la fois par simulation et mesures sur le terrain) sont présentés afin de valider et d'évaluer la performance de reconstructio

    Environnement générique pour la validation de simulations médicales

    Get PDF
    Dans le cadre des simulations pour l'entrainement, le planning, ou l'aide per-opératoire aux gestes médicaux-chirurgicaux, de nombreux modèles ont été développés pour décrire le comportement mécanique des tissus mous. La vérification, la validation et l'évaluation sont des étapes cruciales en vue de l'acceptation clinique des résultats de simulation. Ces tâches, souvent basées sur des comparaisons avec des données expérimentales ou d'autres simulations, sont rendues difficiles par le nombre de techniques de modélisation existantes, le nombre d'hypothèses à considérer et la difficulté de réaliser des expériences réelles utilisables. Nous proposons un environnement de comparaison basé sur une analyse du processus de modélisation et une description générique des éléments constitutifs d'une simulation (e.g. géométrie, chargements, critère de stabilité) ainsi que des résultats (expérimentaux ou provenant d'une simulation). La description générique des simulations permet d'effectuer des comparaisons avec diverses techniques de modélisation (e.g. masse-ressorts, éléments finis) implémentées sur diverses plateformes de simulation. Les comparaisons peuvent être faites avec des expériences réelles, d'autres résultats de simulation ou d'anciennes versions du modèle grâce à la description commune des résultats, et s'appuient sur un ensemble de métriques pour quantifier la précision et la vitesse de calcul. La description des résultats permet également de faciliter l'échange d'expériences de validation. La pertinence de la méthode est montrée sur différentes expériences de validation et de comparaison de modèles. L'environnement et ensuite utilisé pour étudier l'influence des hypothèses de modélisations et des paramètres d'un modèle d'aspiration de tissu utilisé par un dispositif de caractérisation des lois de comportement. Cette étude permet de donner des pistes pour l'amélioration des prédictions du dispositif.Numerous models have been developed to describe the mechanical behavior of soft tissues for medical simulation. Verification, validation and evaluation are crucial steps towards the acceptance of simulation results by clinicians. These tasks, often based on comparisons between simulation results and experimental data or other simulations, are difficult because of the wide range of available modeling techniques, the number of possible assumptions, and the difficulty to perform validation experiments. A comparison framework is proposed based on the analysis of the modelisation process and on a generic description of both constitutive elements of a simulation (e.g. geometry, loads, stability criterion) and results (from simulations or experiments). Generic description allows comparisons between different modeling techniques implemented in various simulation platforms. Comparisons can be performed against real experiments, other simulation results or previous versions of a model thanks to the generic description of results and use a set of metrics to quantify both accuracy and computational efficiency. This description also facilitates validation experiments sharing. The usability of the method is shown on several validation and comparison experiments. The framework is then used to investigate the influence of modeling assumptions and parameters in a biomechanical finite element model of an in-vivo tissue aspiration device. This study gives clues towards the improvement of the predictions of the characterization device.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF
    • …
    corecore