6 research outputs found

    Perancangan Dan Pembuatan Perangkat Lunak Segmentasi Citra Multi Tekstur Dengan Menggunakan Filter Gabor

    Get PDF
    Segmentasi citra adalah proses membagi suatu citra ke dalam obyekobyek tertentu berdasarkan suatu kriteria keseragaman tertentu. Dalam sebuah proses analisis citra, segmentasi merupakan salah satu komponen yang sangat penting, karena obyek-obyek dalam citra akan digunakan dalam proses lebih lanjut, seperti interpretasi atau pengenalan pola. Pada banyak aplikasi, citra disegmentasi berdasarkan intensitas, tetapi tidak semuanya memberikan hasil yang memiliki tingkat kesalahan kecil. Hal ini bisa dimengerti, sebab pada kenyataannya tidak semua obyek memiliki permukaan yang rata, tetapi juga memiliki permukaan bertekstur. Untuk membentuk pola tertentu dari citra bertekstur, dapat digunakan pendekatan spektral yang didasarkan pada sifat-sifat spektrum Fourier. Penggunaan filter pada sebuah citra merupakan mekanisme yang umum digunakan untuk menepis atau mengurangi bagian yang tidak diperlukan dari spektrum dan memperkuat bagian yang diperlukan. Filter yang melewatkan suatu rentang frekuensi yang memiliki batas frekuensi rendah dan tinggi dan menepis rentang frekuensi di luarnya dinamakan dengan filter bandpass. Filter Gabor merupakan sebuah filter bandpass dengan respon impuls diperoleh dari perkalian fungsi Gaussian dengan bilangan kompleks. Penggunaan filter ini pada sebuah citra akan membentuk pola-pola spektrum dari tekstur yang selanjutnya digunakan untuk proses pengelompokan. Pengelompokan dilakukan dengan pendekatan statistika menggunakan model statistika Gaussian. Pada tugas akhir ini dibuat sebuah perangkat lunak yang dapat digunakan untuk mengelompokkan citra berdasarkan perubahan tekstur tertentu. Metode yang digunakan adalah dengan melakukan proses pemfilteran citra dengan filter Gabor. Dengan melakukan proses pemfilteran tersebut, akan diperoleh pola-pola yang khas dari sebuah citra sehingga memudahkan dalam mengelompokkan citra berdasarkan kelas-kelas tekstur tertentu. Hasil yang memuaskan akan diperoleh apabila parameter filter yang digunakan untuk membentuk filter Gabor memiliki ketelitian dalam menangani kesalahan pengelompokan. Dan kemampuan filter ini untuk diterapkan pada citra dengan karakteristik halftone, merupakan sebuah kelebihan yang bisa dikembangkan dalam analisis citra lebih lanjut

    Computer aided diagnosis of miliary TB in chest X-rays

    Get PDF
    Includes bibliography.With the improvement in computer technology, Computer Aided Diagnosis (CAD) is becoming an increasingly more powerful tool for radiologists. The focus of this project was on CAD of pulmonary miliary tuberculosis. Several methods for enhancing lung textures were discussed as an aid to the radiologist in diagnosing miliary TB. Some statistical approaches and template matching methods were used to measure characteristics of both healthy and unhealthy (miliary TB) lung textures. These measurements were evaluated to see if a computer can be programmed to differentiate between lung texture from a healthy lung and lung texture from a lung with miliary TB

    Interpolation temporelle des images avec estimation de mouvement raffinée basée pixel et réduction de l'effet de halo

    Get PDF
    Dans le présent travail, après un résumé de l'état de l'art, une nouvelle interpolation temporelle des images avec réduction de halo est proposée. D'abord, pour la télévision de définition standard, une estimation de mouvement dont la résolution est le pixel, est suggérée. L'estimation se fait par l'appariement des blocs, et est suivie par un raffinement basé pixel en considérant des vecteurs de mouvement environnant. La réduction de halo se faisant à l'aide d'une fenêtre glissante de forme adaptative ne recourt pas à une détection explicite des régions d'occlusion. Ensuite, pour la télévision à haute définition, dans le but de réduire la complexité, l'estimation de mouvement de résolution pixel ainsi que la réduction de halo sont généralisées dans le contexte d'une décomposition hiérarchique. L'interpolation finale proposée est générique et est fonction à la fois de la position de l'image et de la fiabilité de l'estimation. Plusieurs . post-traitements pour améliorer la qualité de l'image sont aussi suggérés. L'algorithme proposé intégré dans un ASIC selon la technologie de circuit intégré contemporain fonctionne en temps réel

    Tomodensitométrie par comptage de photons avec discrimination en énergie

    Get PDF
    Depuis l'avènement de la tomodensitométrie (TDM) au début des années 1970, la durée nécessaire à l'acquisition d'un jeu de données nécessaire à la reconstruction d'une image est passée de plusieurs jours à quelques centaines de millisecondes. Mis à part le progrès des composants mécaniques, électriques et électroniques, le principe de base implanté dans le tout premier prototype est toujours utilisé par les scanners d'aujourd'hui. Si le principe est resté le même, l'utilisation de l'imagerie TDM clinique a connu pour sa part une expansion fulgurante. Un nombre d'examens important, atteignant mondialement les centaines de millions par an au début des années 2000, commence alors à inquiéter la communauté scientifique et médicale. Si la dose administrée par examen reste relativement faible, les conséquences de cette exposition globale pourraient s'avérer fâcheuses. Parallèlement, les 15 dernières années ont vu l'apparition d'un nouveau type de détection. Ce détecteur, qui compte individuellement les photons X et mesure leur énergie, pourrait jouer un rôle important dans la quête de réduction de la dose. Même si ce nouveau développement n'a pas été motivé en réponse directe à l'accroissement de la dose, son avènement arrive à un moment très opportun. D'après la théorie, le seul fait d'acquérir la radiation incidente en utilisant cette approche permet une mesure moins bruitée. La nature spectrale de l'information recueillie ouvre aussi la porte à de nouvelles méthodes de traitement et d'analyse des images reconstruites. Dans la pratique, la fabrication de tels détecteurs n'est cependant pas chose facile et de nombreux impondérables ont fait leur apparition. L'influence des différentes caractéristiques de détection sur la qualité des images est aujourd'hui encore méconnue. Ce projet contient diverses contributions apportées au domaine de la TDM polyénergétique, en utilisant le concept de reconstruction d'images pour leitmotiv. Dans un premier temps, un modèle pragmatique et très différent des approches Monte Carlo existantes est proposé afin de reproduire de manière analytique une acquisition TDM spectrale. Un nouvel algorithme de reconstruction itératif adapté spécifiquement aux données polyénergétiques est ensuite présenté. Cet algorithme, unifiant les concepts éprouvés de décomposition en fonctions de base et de reconstruction statistique, permet de tirer pleinement parti de cette mesure particulière. Une approche de reconstruction différente, utilisant une représentation polaire de l'objet image, est aussi présentée. Celle-ci permet de diminuer grandement les exigences logicielles tout en réduisant les durées de reconstruction. L'influence de certaines caractéristiques de détection associées aux détecteurs spectraux est aussi étudiée, en mettant l'emphase sur les conséquences au niveau de la qualité des images reconstruites. Une méthode novatrice, permettant d'estimer le dépôt de dose à partir d'une acquisition polyénergétique, est finalement présentée

    Échantillonnage stochastique efficace par modèle Bernoulli mélange de Gaussiennes pour la résolution des problèmes inverses parcimonieux

    Get PDF
    Cette thèse aborde la résolution des problèmes inverses parcimonieux quand les données observées peuvent être considérées comme une combinaison linéaire d'un faible nombre d'éléments dits « atomes » (e.g., impulsions, réponse instrumentale décalée ou sinusoïdes). Ces problèmes sont rencontrés dans différents domaines d'application, allant du contrôle non destructif ultrasonore, à la spectroscopie et l'analyse spectrale. Dans le contexte bayésien, ces problèmes peuvent être abordés en considérant des modèles a priori sur les paramètres d'intérêts, prenant en compte la parcimonie de façon explicite via l'introduction de variables binaires (e.g., modèle Bernoulli-Gaussien). L'estimation des paramètres se fait ensuite en calculant un estimateur de type espérance a posteriori à partir d'échantillons générés par des méthodes Monte-Carlo par chaînes de Markov (MCMC). L'avantage majeur des méthodes MCMC dans le contexte bayésien, par rapport aux approches d'optimisation déterministes, est la possibilité d'intégrer sans grande difficulté l'estimation des hyper-paramètres du modèle (e.g., la variance du bruit d'observation) ainsi que de se placer dans un cadre semi-aveugle ou aveugle, c'est-à-dire des cas où les atomes sont partiellement ou totalement inconnus. Cependant, ces méthodes MCMC sont généralement très coûteuses en temps de calcul et nécessitent d'être manipulées avec soin afin de garantir leur convergence. Des approches d'échantillonnage efficace s'appuyant sur le Partially Collapsed Gibbs Sampler (PCGS) ont été développées dans le cas du modèle Bernoulli-Gaussien. Cependant, elles ne peuvent pas être utilisées dès que l'on souhaite considérer d'autres a priori parcimonieux, avec des lois à longues queues (e.g., Bernoulli-Laplace) qui sont préférables à la Gaussienne car elles induisent une moindre régularisation ; ou avec des lois à support réduit (e.g., Bernoulli-Exponentiel) afin de garantir une contrainte de non-négativité. On est alors restreint à l'utilisation des méthodes MCMC classiques coûteuses en temps de calcul. L'objectif de cette thèse est de réconcilier l'échantillonnage PCGS avec des modèles prenant en compte la parcimonie de façon explicite autres que le modèle Bernoulli-Gaussien. La principale contribution est l'introduction et l'étude d'un nouveau modèle a priori dit « Bernoulli Mélange de Gaussiennes » (BMG). Ce dernier repose sur les lois de mélange continu de Gaussiennes et permet l'amélioration des propriétés de convergence des méthodes MCMC grâce à une implémentation numérique efficace d'algorithmes PCGS. D'autre part, le modèle est présenté dans un cadre général, permettant de prendre en compte, de manière systématique, de nombreuses lois de probabilité. Pour ces travaux, nous avons exploité des lois de probabilité de la famille LSMG (Location and Scale Mixture of Gaussians), peu étudiée dans la littérature, que nous avons caractérisées plus précisément. Une deuxième contribution majeure consiste à étendre le champ d'application du modèle BMG aux lois de probabilité à support réduit. Ainsi, nous avons proposé une nouvelle approche d'approximation de lois de probabilité dénommée « asymptotically Exact Location-Scale Approximations » (ELSA) pour laquelle nous avons montré le bon comportement, à la fois en théorie et en pratique et avons montré empiriquement son efficacité par rapport aux approches de l'état de l'art. Enfin, l'efficacité du nouveau modèle BMG, de son échantillonneur PCGS et des approximations ELSA est étudiée et validée dans le cadre des problèmes inverses parcimonieux sur un exemple de déconvolution de train d'impulsions.This thesis deals with sparse inverse problems when the observed data can be considered as a linear combination of a small number of elements called « atoms » (e.g., pulses, shifted instrumental response or sinusoids). These problems are encountered in various domains, ranging from ultrasonic non-destructive testing to spectroscopy and spectral analysis. In the Bayesian framework, these problems can be addressed by considering a priori models on the parameters of interest that take into account the sparsity explicitly via the introduction of binary variables (e.g., Bernoulli-Gaussian model). The estimation of the parameters is done by computing the posterior mean estimator from samples generated by Markov chain Monte Carlo (MCMC) methods. The major advantage of MCMC methods in the Bayesian framework, compared to deterministic optimization approaches, is the possibility of integrating without much difficulty the estimation of the hyper-parameters of the model (e.g., the variance of the observation noise) as well as considering semi-blind or blind settings, i.e., cases where the atoms are partially or totally unknown. However, MCMC methods are generally computationally expensive and need to be handled carefully to ensure their convergence. An efficient sampling approaches based on the Partially Collapsed Gibbs Sampler (PCGS) have been developed for the Bernoulli-Gaussian model. However, it cannot be used with other sparse enforcing priors, such as priors with long-tailed distributions (e.g., Bernoulli-Laplace) which are preferable to the Gaussian because they induce less regularization; or with distributions supported in a bonded interval (e.g., Bernoulli-Exponential) in order to guarantee a non-negativity constraint. As a result one is restricted to the computationally expensive classical MCMC methods. The objective of this thesis is to reconcile PCGS sampling with models that explicitly take into account sparsity other than the Bernoulli-Gaussian model. The main contribution is the introduction and study of a new prior model called « Bernoulli Mixture of Gaussians » (BMG). The latter, based on continuous Gaussian mixtures improves the convergence properties of MCMC methods thanks to an efficient numerical implementation of PCGS algorithms. On the other hand, the model is presented in a general framework, allowing to take into account, in a systematic way, a rich family of probability distributions. More precisely, the BMG relies on the LSMG (Location and Scale Mixture of Gaussians) family, which we have studied and characterized. The second major contribution consists in extending the field of application of the BMG model to probability distributions supported on a bounded interval. Thus, we have proposed a new approach to approximate probability distributions called « asymptotically Exact Location-Scale Approximations » (ELSA) for which we have shown good behavior, both in theory and in practice and empirically validate its efficiency compared to state-of-the-art approaches. Finally, the efficiency of the BMG model, its PCGS sampler and ELSA approximations is studied and validated in the context of sparse inverse problems on an example of spike train deconvolution
    corecore