8 research outputs found

    Nouvelle approche hybride d'optimisation multiobjective basée sur la méthode des surfaces de réponse et le système de colonies de fourmis

    Get PDF
    L'environnement industriel est devenu très compétitif et exige des délais de fabrication de plus en plus courts, des coûts réduits, ainsi que des produits de bonne qualité. Ces besoins conduisent à des problèmes d'ingénierie complexes, caractérisés par de nombreux objectifs ainsi que des contraintes plus complexes. De par le grand nombre de variables mises en jeu et la nécessité d'utiliser des logiciels pour les calculs des contraintes, ce processus d'optimisation est coûteux en temps de calcul et en expérimentation. Une des possibilités de réduction des coûts vient de l'introduction de la méthode des surfaces de réponse dans le processus d'optimisation. L'objectif principal de notre recherche est le développement d'un nouvel outil efficace d'optimisation et d'analyse. Nous avons développé une méthodologie souple et robuste, capable de résoudre des problèmes complexes. Le terme « optimisation » est très répandu, mais beaucoup de ceux qui l'emploient ne disposent pas d'outils spécifiques à cette fin. Ainsi, l'ingénieur cherche-t-il toujours la performance maximale, sans renoncer aux contraintes de coût minimum du projet. Pour ce faire, nous proposons une nouvelle approche multiobjective combinant un outil de simulation à la modélisation avec la méthode des surfaces de réponse et aux algorithmes des colonies de fourmis (ACO). Le modèle d'optimisation développée est appliqué à l'optimisation d'un procédé de dessalement de l'eau de mer et à l'optimisation d'un procédé d'usinage cinq axes. Ces applications ont conduit à de grandes améliorations des résultats, de l'ordre de 30% pour le problème d'usinage, comparativement à l'usuelle fonction de désirabilité. L'approche hybride développée constitue une technique puissante et flexible pour la recherche de solution optimale pour différents problèmes

    Logiciel de génération de colonnes

    Get PDF
    Un modèle unifié sour la forme d'un problème non linéaire de flot multi-commodités -- Décomposition de la formulation -- Portée du modèle -- Problème SPTW -- Du problème SPTW au modèle unifié -- Méthodes de résolutin du modèle unifié décomposé -- Applications basées sur le modèle unifié -- Génération de colonnes et programmation en nombres entiers -- Un problèm linéaire P en nombres entiers -- La phase d'évaluation -- La phase de séparation : revue de littérature -- Une reformulation multi-commodités Q de P -- Résolution de P par l'intermédiaire de Q -- Mise en oeuvre de Gencol -- Historique des versions 0, 1 et 2 de Gencol -- Mise en oeuvre de Gencol-3 et de Gencol 4 -- Stabilisation pour la génération de colonnes -- Problème Peo -- Algorithme stabilisé -- Agrégation de contraintes -- Redondance, partitions et agrégation -- Agrégation statique -- Agrégation dynamique

    Association optimale d'utilisateurs dans un réseau cellulaire hétérogène

    Get PDF
    Actuellement, le nombre d’utilisateurs voulant accéder aux réseaux cellulaires ne cesse de croître remarquablement. Cette observation est d’ailleurs illustrée dans plusieurs rapports techniques sous forme de courbes. D’un autre côté, la demande des utilisateurs en termes de ressources est de plus en plus exigeante et les ressources demandées sont la plupart du temps volumineuses, pour les applications telles que les jeux en réseaux ou encore les vidéos. Il a donc été constaté, il y a plusieurs années, que l’application du réseau conventionnel n’est plus appropriée pour les évolutions technologiques dont le monde fait face aujourd’hui. Ainsi, les industriels et les académiciens ont développé l’idée d’exploiter l’hétérogénéité des réseaux cellulaires, où différents types de cellules sont embarquées dans le même réseau. Le but de l’utilisation des petites cellules conjointement avec des macrocellules conventionnelles est donc de pouvoir servir le maximum d’utilisateurs possible tout en satisfaisant la qualité de service qu’ ils exigent. De plus, l’exploitation de cette hétérogénéité s’avère moins onéreuse comparée au cas où d’autres macrocellules seraient ajoutées aux réseaux. Cependant, les réseaux HetNets engendrent plusieurs complexités et défis importants. Parmi eux sont le problème d’équilibrage de la charge et de sélection cellulaire entre la macrocellule et les petites cellules, un problème qui est dû notamment à la disparité de leur puissance de transmission, de leur couverture, à la quantité de ressources qui y sont disponibles. Un deuxième défi important est la gestion de la mobilité de l’utilisateur lorsqu’il traverse une région picocellulaire ou femtocellulaire surtout si la vitesse de l’utilisateur est élevée. Le troisième point important à considérer est l’interférence mesurée par les utilisateurs associés aux petites cellules à partir des macrocellules. Cette interférence est due principalement au fait que les utilisateurs sont forcés de s’associer aux petites cellules en présence de macrocellules avoisinantes. Par conséquent, dans cette thèse, nous tentons de trouver une solution pour les trois points énumérés précédemment, soit, la selection cellulaire, le transfert intercellulaire et la réduction de l’interférence dans un réseau HetNet. Dans une première partie, pour répondre au problème d’association de nature NP-complet dans HetNet, nous proposons des algorithmes heuristiques. Plus précisément, deux algorithmes y sont étudiés. Le premier est une technique d’association basée sur l’extension dynamique de la couverture picocellulaire. Le deuxième algorithme quant à lui est une technique d’association de l’utilisateur se reposant sur le gain en équité qu’il mesurerait de la cellule voisine potentielle. Nous constatons alors, qu’en plus d’être moins complexe à réaliser, les algorithmes heuristiques proposés donnent une meilleure performance compare aux méthodes générales proposées dans la littérature si on se focalise sur la diminution de l’inéquité de la charge cellulaire et sur l’homogénéité de la distribution des utilisateurs dans le réseau. Dans une deuxième partie, notre objectif est d’optimiser l’équité des utilisateurs dans le HetNet et de réduire l’interférence mesurée par l’utilisateur associé aux femtocellules étendues. Dans cette optique, nous exploitons une fois de plus, la technique d’extension de la couverture cellulaire. Ainsi, nous proposons une technique optimale d’extension coordonnée de couverture cellulaire qui calcule les biais optimaux des cellules en tenant compte des paramètres jugés les plus importants pour l’atteinte de l’optimalité. Nous prouvons que, comparée à certaines méthodes précédemment étudiées dans la littérature, la technique que nous proposons résulte en une meilleure amélioration de l’équilibrage de la charge, de l’équité entre les utilisateurs ainsi que du débit réalisable de chaque utilisateur. Dans une troisième partie, nous tentons d’améliorer l’expérience de transfert intercellulaire d’un utilisateur en considérant un scénario où ce dernier traverse une couverture femtocellulaire. Le transfert intercellulaire étant l’une des techniques de gestion de la mobilité dans les réseaux cellulaires. Ainsi, nous proposons une technique basée sur l’utilité dont l’idée principale est de concevoir de nouvelles fonctions d’utilité via une function objective spécifique qui tient compte de l’exigence de l’utilisateur. Par la suite, le biais de transfert est déduit et inséré dans les politiques de décision de transfert. Nous en concluons qu’un gain élevé est obtenu en ce qui concerne la probabilité d’assignation à la femtocellule tout en maintenant un nombre acceptable de transferts intercellulaire

    Commande Ă  seuils critiques de la production dans un atelier de fabrication avec machines en tandem non fiables

    Get PDF
    Éléments de gestion optimale de la production dans les ateliers de fabrication -- Vision de décomposition hiérarchisée des ateliers de fabrication -- Particularités des processus de production en tandem -- État de l'art sur la gestion sous-optimale de la production en tandem -- Optimisation d'une classe de politiques décentralisées de production, à seuils critiques, pour deux machines non fiables en tandem -- Optimisation d'une classe de politiques décentralisées de la production, à seuils critiques, pour M machines en tandem -- Exploration numérique des propriétés des lois de commande décentralisées de la production à seuils critiques

    Un système data mining en ligne pour la maintenance ontologique d'une mémoire corporative DM

    Get PDF
    L'intégration de la connaissance dans la mémoire corporative (Ribière et Matta, 1998), (Dieng et al., 1998) fait face à l'hétérogénéité des données (Visser, Jones et al., 1997). L'utilisation de l'ontologie est une approche possible pour surmonter ce problème. Cependant, l'ontologie est une structure de donnée comme n'importe quelle structure informatique, elle est donc dynamique et évolue dans le temps à cause des conditions dynamiques résultant des changements du domaine conceptuel, les changements de conceptualisation, les changements de spécification, les changements descendants, etc. (Yildiz, 2006). Ces dernières années, plusieurs approches ont été proposées pour résoudre le problème de la maintenance des ontologies. Cependant, la précision et le rappel ne permettent pas de satisfaire les besoins des utilisateurs. De plus, ces approches ne prennent pas en compte toute l'information disponible pour prendre une décision réaliste. Pour résoudre le problème de l'évolution de la connaissance dans les ontologies, nous proposons une approche hybride qui utilise l'apprentissage machine et un processus d'alignement qui contrôle les relations syntaxiques entre les entrées dans l'ontologie. De plus, des règles structurelles et des heuristiques sont appliquées pour améliorer le degré de similitude entre les entités ontologiques. Ce processus hybride crée des règles de correspondance qui définissent comment transformer les entrées dans l'ontologie en définissant tous les types d'associations possibles entre les entités ontologiques. L'approche d'enrichissement de l'ontologie exploite les techniques de la fouille de données, les techniques du traitement automatique du langage naturel et la recherche d'information pour améliorer la performance d'apprentissage durant la tâche d'enrichissement du domaine conceptuel. L'évaluation des ontologies demeure un problème important et le choix d'une approche appropriée dépend des critères utilisés. Dans notre approche, nous adoptons la vérification de la cohérence décrite dans (Maziar Amirhosseini et al., 2011) et (Abderrazak et al., 2011).\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Data Mining, Traitement automatique du langage naturel, Apprentissage machine, Recherche d'information, Intégration, Ontologie, Mémoire corporative, Web sémantique

    Observation adaptative : limites de la prévision et du contrôle des incertitudes

    Get PDF
    L'observation adaptative (OA) est une pratique de prévision numérique du temps (PNT) qui cherche à prévoir quel jeu (ou réseau) d'observations supplémentaires à déployer et à assimiler dans le futur améliorera les prévisions. L'objectif est d'accroître la qualité des prévisions météorologiques en ajoutant des observations là où elles auront le meilleur impact (optimal). Des méthodes numériques d'OA apportent des réponses objectives mais partielles. Elles prennent en compte à la fois les aspects dynamiques de l'atmosphère à travers le modèle adjoint, et aussi le système d'assimilation de données. Le système d'assimilation de données le plus couramment utilisé pour l'OA est le 4D-Var. Ces méthodes linéaires (technologie de l'adjoint) reposent cependant sur une réalisation déterministe (ou trajectoire) unique. Cette trajectoire est entachée d'une incertitude qui affecte l'efficacité de l'OA. Le point de départ de ce travail est d'évaluer l'impact de l'incertitude associée au choix de cette trajectoire sur une technique: la KFS. Un ensemble de prévisions est utilisé pour étudier cette sensibilité. Les expériences réalisées dans un cadre simplifié montrent que les solutions de déploiement peuvent changer en fonction de la trajectoire choisie. Il est d'autant plus nécessaire de prendre cette incertitude en considération que le système d'assimilation utilisé n'est pas vraiment optimal du fait de simplifications liées à sa mise en oeuvre. Une nouvelle méthode d'observation adaptative, appelée Variance Reduction Field (VRF), a été développée dans le cadre de cette thèse. Cette méthode permet de déterminer la réduction de variance de la fonction score attendue en assimilant une pseudo-observation supplémentaire pour chaque point de grille. Deux approches de la VRF sont proposées, la première est basée sur une simulation déterministe. Et la seconde utilise un ensemble d'assimilations et de prévisions. Les deux approches de la VRF ont été implémentées et étudiées dans le modèle de Lorenz 96. Le calcul de la VRF à partir d'un ensemble est direct si l'on dispose déjà des membres de l'ensemble. Le modèle adjoint n'est pas nécessaire pour le calcul.L'implémentation de la VRF dans un système de prévision du temps de grande taille, tel qu'un système opérationnel, n'a pas pu être réalisée dans le cadre de cette thèse. Cependant, l'étude de faisabilité de la construction de la VRF dans l'environnement OOPS a été menée. Une description de OOPS (version 2013) est d'abord présentée dans le manuscrit, car cet environnement est une nouveauté en soi. Elle est suivie de la réflexion sur les développements à introduire pour l'implémentation de la VRF. ABSTRACT : The purpose of adaptive observation (AO) strategies is to design optimal observation networks in a prognostic way to provide guidance on how to deploy future observations. The overarching objective is to improve forecast skill. Most techniques focus on adding observations. Some AO techniques account for the dynamical aspects of the atmosphere using the adjoint model and for the data assimilation system (DAS), which is usually either a 3D or 4D-Var (ie. solved by the minimization of a cost function). But these techniques rely on a single (linearisation) trajectory. One issue is to estimate how the uncertainty related to the trajectory affects the efficiency of one technique in particular: the KFS. An ensemble-based approach is used to assess the sensitivity to the trajectory within this deterministic approach (ie. with the adjoint model). Experiments in a toy model show that the trajectory uncertainties can lead to significantly differing deployments of observations when using a deterministic AO method (with adjoint model and VDAS). This is especially true when we lack knowledge on the VDAS component. During this work a new tool for observation targeting called Variance Reduction Field (VRF)has been developed. This technique computes the expected variance reduction of a forecast Score function that quantifies forecast quality. The increase of forecast quality that is a reduction of variance of that function is linked to the location of an assimilated test probe. Each model grid point is tested as a potential location. The VRF has been implemented in a Lorenz 96 model using two approaches. The first one is based on a deterministic simulation. The second approach consists of using an ensemble data assimilation and prediction system. The ensemble approach can be easily implemented when we already have an assimilation ensemble and a forecast ensemble. It does not need the use of the adjoint model. The implementation in real NWP system of the VRF has not been conducted during this work. However a preliminary study has been done to implement the VRF within OOPS (2013 version). After a description of the different components of OOPS, the elements required for the implementation of the VRF are described
    corecore