59 research outputs found

    Parallélisation d'un algorithme d'optimisation par colonies de fourmis pour la résolution d'un problème d'ordonnancement industriel

    Get PDF
    Les problèmes d'optimisation combinatoire peuvent être retrouvés, sous différentes formes, dans un grand nombre de sphères d'activité économique au sein de notre société. Ces problèmes complexes représentent encore un défi de taille pour bon nombre de chercheurs issus de domaines scientifiques variés tels les mathématiques, l'informatique et la recherche opérationnelle, pour ne citer que quelques exemples. La nécessité de résoudre ces problèmes de façon efficace et rapide a entraîné le prolifération de méthodes de résolution de toutes sortes, certaines étant plus spécifiques à un problème et d'autres étant plus génériques. Ce mémoire réunit différentes notions du parallélisme et des métaheuristiques afin d'apporter une méthode de résolution performante à un problème d'optimisation combinatoire réel. Il démontre que l'introduction de stratégies de parallélisation à un algorithme d'Optimisation par Colonies de Fourmis permet à ce dernier d'améliorer considérablement ses facultés de recherche de solutions. Le succès de cette approche dans la résolution d'un problème d'ordonnancement industriel rencontré dans une entreprise de fabrication d'aluminium montre l'intérêt pratique de ces méthodes et leurs retombées économiques potentielles. Ce travail de recherche, loin d'être une fin en soi, représente plutôt une première exploration des possibilités offertes par deux domaines fort prometteurs de l'informatique et de la recherche opérationnelle. L'union de méthodes d'apprentissage intelligentes et d'une puissance de calcul imposante pourrait fort bien se révéler un outil performant pour la résolution de problèmes d'une telle envergure

    Le calcul des plus courts chemins statiques et temporels : synthèse, implantations séquentielles et parallèles

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    Approches de parallélisation basées sur l'organisation de la mémoire pour des méthodes de séparations et évaluations progressives

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    Evaluation of the SynDEx software for fast prototyping of image processing applications on a MIMD-DM architecture

    Get PDF
    The goal of this paper is to evaluate the SynDEx system-level CAD tool in order to estimate its usefulness for fast prototyping of image processing applications on a MIMD-DM architecture. This software can assist the programmer during the implementation of image processing applications in his constrained search for an efficient matching between algorithm and architecture . Two main conclusions were drawn from this work . First, the implementation of a connected component labeling algorithm on a multitransputer architecture allowed us to quantify the gap between the estimated performances predicted by SynDEx and the effective performances measured on the generated executives . This gap - initially pointed out in the v3 release - is largely reduced in the v4. As part of this work, the v4 executive has been ported to T800 and T9000 targets . Second, the strong impact of the process granularity both on the easiness of the specification and the efficiency of the implementation has been evidenced. From a pragmatic point of view, this second conclusion clearly shows the advantages of a tool such as SynDEx, allowing to quickly evaluate these criterions at many granularity levels . From a more prospective point of view, the formalisation of some recurrent graph transformation rules, appearing when searching an optimal granularity, led us to the concept of algorithmic skeletons.Cet article a pour objectif d'évaluer l'outil de distribution-ordonnancement statique SynDEx en vue d'estimer ses performances de prototypage rapide d'applications dans le domaine du traitement d'images à fortes contraintes temporelles sur une machine MIMD-MD. Les retombées de ce travail sont de plusieurs ordres. Premièrement, l'implantation d'un algorithme d'étiquetage en composantes connexes sur multi-transputer a permis de quantifier l'écart attendu entre prédictions de performances, calculées à partir du modèle d'exécutif de SynDEx, et mesures de performances, obtenues à partir des exécutifs générés par SynDEx, Cet écart - initialement observé avec la version v3 - est nettement réduit avec la version v4, dont l'exécutif a fait l'objet d'un portage sur Transputer dans le cadre de ce fravail. Deuxièmement, il a été mis en évidence le rôle crucial joué par la granularité de traitement tant au niveau de la facilité d'expression des algorithmes que de l'efficacité des implantations résultantes. Cet aspect confirme l'intérêt d'un outil permettant d'évaluer rapidement ces critères pour plusieurs niveaux de granularité. D'un point de vue plus prospectif, la formalisation de certaines opérations de transformation de graphe associées à cette recherche d'une granularité optimale nous a d'ailleurs conduits à la notion de squelettes de parallélisation

    Optimisation d’algorithmes de codage vidéo sur des plateformes à plusieurs processeurs parallèles

    Get PDF
    H.264 est le standard de codage vidéo le plus récent et le plus puissant. Ce standard permet, par rapport à ses prédécesseurs, d’augmenter le taux de compression par un facteur d’au moins deux, mais au prix d’une complexité plus élevée. Pour réduire le temps d’encodage, plusieurs encodeurs H.264 utilisent une approche parallèle. Dans le cadre de ce travail de recherche, notre objectif premier est de concevoir une approche offrant une meilleure accélération que l’approche implémentée dans l’encodeur H.264 d’Intel livré en code d’exemple dans sa librairie IPP. Nous présentons notre approche d’encodage vidéo parallèle multi-trames et multi-tranches (MTMT) et ses modes d’estimation de mouvement qui offrent un compromis entre l’accélération et la perte de qualité visuelle. Le premier mode, le plus rapide, mais dégradant le plus la qualité, restreint la région de recherche de l'estimation de mouvement à l'intérieur des limites de la tranche courante. Le second mode, moins rapide, mais dégradant moins la qualité que le premier, élargit la région de recherche aux tranches voisines, quand les tranches de référence y correspondant ont été traitées. Le troisième mode, moins rapide que le second, mais dégradant moins la qualité, rend une tranche prête à l'encodage seulement quand les tranches de référence couvrant la région de recherche ont été traitées. Nos expériences montrent que le premier mode de notre approche offre une accélération moyenne environ 55 % plus élevée que celle obtenue par l’approche d’Intel. Nos expériences montrent aussi que nous obtenons une accélération comparable à celle obtenue par l’état de l’art sans l’inconvénient de forcer l’utilisation des trames B. De plus, notre approche s’implémente rapidement dans un encodeur H.264 qui, comme l’encodeur H.264 d’Intel, est basé sur une approche multi-tranches

    Etude d'heuristiques distribuées de recherche sans contrôle global explicite

    Get PDF
    Concepts du traitement parallèle -- Parallélisation des méthodes de recherche -- Stratégies de parallélisation de la méthode tabou -- Parallélisation par recherches multiples coopérantes -- Dynamiques de réactions en chaîne -- Analyse de l'interaction entre les stratégies d'exploitation

    eCandy Evolutionary Camera Network Deploy

    Get PDF
    Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011Les systèmes de surveillance vidéo comme méthode de prévention et de protection connaissent une popularité grandissante. Cependant, des études tendent à démontrer que le placement des caméras est généralement inadéquat, se soldant en des systèmes à efficacité limitée. Ce mémoire propose une méthode permettant le placement automatique d'un nombre variable de caméras dans un environnement arbitraire en vue d'en optimiser le coût et la performance. Nous développons une formulation de la problématique pouvant servir à l'expression générale de plusieurs problèmes de placement de caméras. Les problèmes sont résolus grâce à un algorithme évolutionnaire, utilisant une représentation à taille variable, qui produit en sortie un ensemble de solutions exprimant les compromis possibles entre le coût et la performance. L'analyse qualitative des solutions est réalisée à l'aide de trois paradigmes de visualisation développée pour ce projet. Nous analysons trois problèmes concrets résolus par l'algorithme

    Algorithme génétique spécifique à l'analyse de la susceptibilité à l'hypertension de la population du Saguenay-Lac-Saint-Jean

    Full text link
    Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

    Outils et méthodes pour le traitement parallèle de calculs sur des tableaux

    Get PDF
    Modèle de parallélisme de HPF -- Architecture du SIMD de pulse -- Partitionnement de boucles imbriquées -- Partitionnement de code de haut niveau -- Génération d'adresse pour les tableaux -- Langages de haut niveau pour la programmation SIMD -- Méthodes itératives -- Méthodes directes -- Contexte matériel -- Mise en oeuvre d'un objet-tableau C++ -- Générations d'adresses -- Patrons d'adresses -- Algorithme -- Implantation logicielle -- Implantation matérielle -- Transformations -- Paramètres -- Un langage de haut niveau pour les ordinateurs SIMD -- Description du langage -- Sémantique -- Tampons circulaires -- Exemple de programme -- Analyse des performances obtenues -- Génération automatique de directives HPF -- Cadre conceptuel et algorithmes -- Implantation -- Généralisation et formalisation du modèle de partitionnement -- Classe de distribution -- Algorithmes

    Edge detection and image smoothing using two deterministic relaxation algorithms. Implementation on the connection machine CM2

    Get PDF
    Recently, a lot of algorithms minimizing a non-convex energy function have been proposed to salve low level vision problems . Different kinds of relaxation methods are available . The stochastic techniques, such as simulated annealing, asymptotically converge to the global minimum but require a high computational cost . Deterministic relaxation methods which are sub-optimal, give good results and are faster than the stochastic ones . In this palier, we focus on the parallel implementation of two deterministic algorithms for edge détection and image smoothing : the graduated nonconvexity (GNC) originally proposed by Blake & Zisserman and the mean field annealing (MFA) introduced by Geiger & Girosi and extended to anisotropie compound Gauss-Markov random fields by Zerubia & Chellappa . Both methods are based on a weak-membrane model and both algorithms are inherently serial : each step produces a pixel map which is taken as an input for the next step . For the GNC, we implement a checkerboard version of the successive over-relaxation (SOR) method to minimize the energy . For the MFA, we use an optimal step conjugale gradient descent .Récemment, de nombreux algorithmes de minimisation de fonctions non convexes ont été proposés pour résoudre des problèmes de vision bas niveau . Il existe plusieurs méthodes de relaxation . Les techniques stochastiques, telles que le recuit simulé, convergent asymptotiquement, sous certaines conditions, vers le minimum global, mais sont très coûteuses en temps de calcul . Les méthodes de relaxation déterministes sont sous-optimales, mais donnent de bons résultats et sont plus rapides que les méthodes stochastiques . Dans cet article, nous présentons la mise en oeuvre parallèle de deux algorithmes déterministes de détection de contours et de lissage d'image le GNC (« Graduated Non-Convexity ») proposé par Blake & Zisserman et le recuit par champs moyens (MFA) introduit par Geiger & Girosi et étendu aux champs de Markov composés anisotropes par Zerubia & Chellappa . Ces deux méthodes sont fondées sur le modèle de la membrane à contraintes de continuité lâches et sont séquentielles : à chaque pas est produit une image qui est utilisée au pas suivant . Pour le GNC, nous avons utilisé une méthode de minimisation de l'énergie appelée « successive over-relaxation (SOR) » et plus précisément une variante parallèle de cette technique. En ce qui concerne l'algorithme MFA, nous avons utilisé une méthode de descente de gradient conjugué à pas optimal
    • …
    corecore