5 research outputs found
Edge detection and image smoothing using two deterministic relaxation algorithms. Implementation on the connection machine CM2
Recently, a lot of algorithms minimizing a non-convex energy function
have been proposed to salve low level vision problems . Different kinds of
relaxation methods are available . The stochastic techniques, such as
simulated annealing, asymptotically converge to the global minimum but
require a high computational cost . Deterministic relaxation methods which
are sub-optimal, give good results and are faster than the stochastic ones .
In this palier, we focus on the parallel implementation of two deterministic
algorithms for edge détection and image smoothing : the graduated nonconvexity
(GNC) originally proposed by Blake & Zisserman and the mean
field annealing (MFA) introduced by Geiger & Girosi and extended to
anisotropie compound Gauss-Markov random fields by Zerubia & Chellappa . Both methods are based on a weak-membrane model and both
algorithms are inherently serial : each step produces a pixel map which is
taken as an input for the next step . For the GNC, we implement a
checkerboard version of the successive over-relaxation (SOR) method to
minimize the energy . For the MFA, we use an optimal step conjugale
gradient descent .Récemment, de nombreux algorithmes de minimisation de fonctions non
convexes ont été proposés pour résoudre des problèmes de vision bas
niveau . Il existe plusieurs méthodes de relaxation . Les techniques
stochastiques, telles que le recuit simulé, convergent asymptotiquement,
sous certaines conditions, vers le minimum global, mais sont très
coûteuses en temps de calcul . Les méthodes de relaxation déterministes
sont sous-optimales, mais donnent de bons résultats et sont plus rapides
que les méthodes stochastiques .
Dans cet article, nous présentons la mise en oeuvre parallèle de deux
algorithmes déterministes de détection de contours et de lissage d'image
le GNC (« Graduated Non-Convexity ») proposé par Blake & Zisserman
et le recuit par champs moyens (MFA) introduit par Geiger & Girosi et
étendu aux champs de Markov composés anisotropes par Zerubia & Chellappa . Ces deux méthodes sont fondées sur le modèle de la
membrane à contraintes de continuité lâches et sont séquentielles : à
chaque pas est produit une image qui est utilisée au pas suivant . Pour le
GNC, nous avons utilisé une méthode de minimisation de l'énergie
appelée « successive over-relaxation (SOR) » et plus précisément une
variante parallèle de cette technique. En ce qui concerne l'algorithme
MFA, nous avons utilisé une méthode de descente de gradient conjugué
à pas optimal
Graph and hypergraph partitioning
Ankara : The Department of Computer Engineering and Information Science and the Institute of Engineering and Science, Bilkent Univ., 1993.Thesis (Master's) -- Bilkent University, 1993.Includes bibliographical references leaves 120-123Daşdan, AliM.S
Analyse d'images : Filtrage et segmentation
Ouvrage publié avec l'aide du Ministère des affaires étrangères, direction de la coopération scientifique et technique. AVERTISSEMENT Le livre publié en 1995 chez MASSON (EAN13 : 9782225849237) est épuisé. Cette version pdf est une version élaborée à partie de la version préliminaire transmise à l'éditeur. La mise en page est légèrement différente de celle du livre. Malheureusement quelques figures de l'annexe C ont été perdues.International audienceL'analyse d'image touche à l'heure actuelle de nombreux domaines, avec des objectifs aussi variés que l'aide au diagnostic pour les images médicales, la vision artificielle en robotique ou l'analyse des ressources terrestres à partir des images prises par satellite. Le but du traitement de ces images est à la fois simple dans son concept et difficile dans sa réalisation. Simple en effet, puisqu'il s'agit de reconnaître des objets que notre système visuel perçoit rapidement, du moins pour la majorité d'entre eux. Difficile cependant, car dans la grande quantité d'informations contenues dans l'image, il faut extraire des éléments pertinents pour l'application visée et ceci indépendamment de la qualité de l'image. L'analyse d'image s'est donc dotée d'outils et de méthodes puissants issus de domaines aussi variés que les mathématiques, le traitement du signal, ou l'informatique. Cet ouvrage présente un des aspects les plus importants du traitement des images : la " segmentation ". Il récapitule d'abord les grandeurs observables et calculables sur une image et les algorithmes de manipulation des structures de données associées. Il détaille ensuite les traitements préliminaires, tels le filtrage du bruit et les deux types d'approche de la segmentation, l'extraction des contours et celle des régions. Chacune fait l'objet d'une étude théorique et de nombreux résultats illustrent les performances. Une des originalités de l'ouvrage est l'étude comparative des différentes techniques appliquées sur un même corpus d'images réelles