21 research outputs found

    Adaptation de services dans un espace intelligent sensible au contexte

    Get PDF
    Grâce à l’apparition des paradigmes de l’intelligence ambiante, on assiste à l’émergence de nouveaux systèmes intelligents ambiants visant à créer et gérer des environnements intelligents d’une façon intuitive et transparente. Ces environnements sont des espaces intelligents caractérisés notamment par l’ouverture, l’hétérogénéité, l’incertitude et la dynamique des entités qui les constituent. Ces caractéristiques soulèvent ainsi des defies scientifiques considérables pour la conception et la mise en place d’un système intelligent adéquat. Ces défis sont principalement au nombre de trois : l’abstraction et la gestion du contexte, la sensibilité au contexte et l’auto-adaptation face aux changements imprévisibles qui peuvent se produire dans un environnement ambiant. Dans cette thèse, nous avons proposé une architecture d’un système intelligent capable d’adapter les services selon les besoins des utilisateurs en tenant compte, d’une part, du contexte environnemental et de ses différents équipements et d’autre part, des besoins variables exprimés par les utilisateurs. Ce système est construit suivant un modèle sensible au contexte, adaptatif et réactif aux évènements. Il se repose sur des entités modulaires de faible couplage et de forte cohésion lui permettant d’être flexible et efficace. Ce système integer également un module d’adaptation de services afin de repérer le contexte et de l’ajuster dynamiquement suivant les attentes des utilisateurs. Cette adaptation est réalisée via deux algorithmes : le premier est un algorithme par renforcement (Q-learning), le deuxième est un algorithme supervisé (CBR). L’hybridation de ces deux algorithmes permet surmonter les inconvénients de Q-learning pour aboutir à une nouvelle approche capable de gérer le contexte, sélectionner et adapter le service

    Détection et analyse de motifs structuraux et fonctionnels dans les acides ribonucléiques

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    La métaheuristique CAT pour le design de réseaux logistiques déterministes et stochastiques

    Get PDF
    De nos jours, les entreprises d’ici et d’ailleurs sont confrontées à une concurrence mondiale sans cesse plus féroce. Afin de survivre et de développer des avantages concurrentiels, elles doivent s’approvisionner et vendre leurs produits sur les marchés mondiaux. Elles doivent aussi offrir simultanément à leurs clients des produits d’excellente qualité à prix concurrentiels et assortis d’un service impeccable. Ainsi, les activités d’approvisionnement, de production et de marketing ne peuvent plus être planifiées et gérées indépendamment. Dans ce contexte, les grandes entreprises manufacturières se doivent de réorganiser et reconfigurer sans cesse leur réseau logistique pour faire face aux pressions financières et environnementales ainsi qu’aux exigences de leurs clients. Tout doit être révisé et planifié de façon intégrée : sélection des fournisseurs, choix d’investissements, planification du transport et préparation d’une proposition de valeur incluant souvent produits et services au fournisseur. Au niveau stratégique, ce problème est fréquemment désigné par le vocable « design de réseau logistique ». Une approche intéressante pour résoudre ces problématiques décisionnelles complexes consiste à formuler et résoudre un modèle mathématique en nombres entiers représentant la problématique. Plusieurs modèles ont ainsi été récemment proposés pour traiter différentes catégories de décision en matière de design de réseau logistique. Cependant, ces modèles sont très complexes et difficiles à résoudre, et même les solveurs les plus performants échouent parfois à fournir une solution de qualité. Les travaux développés dans cette thèse proposent plusieurs contributions. Tout d’abord, un modèle de design de réseau logistique incorporant plusieurs innovations proposées récemment dans la littérature a été développé; celui-ci intègre les dimensions du choix des fournisseurs, la localisation, la configuration et l’assignation de mission aux installations (usines, entrepôts, etc.) de l’entreprise, la planification stratégique du transport et la sélection de politiques de marketing et d’offre de valeur au consommateur. Des innovations sont proposées au niveau de la modélisation des inventaires ainsi que de la sélection des options de transport. En deuxième lieu, une méthode de résolution distribuée inspirée du paradigme des systèmes multi-agents a été développée afin de résoudre des problèmes d’optimisation de grande taille incorporant plusieurs catégories de décisions. Cette approche, appelée CAT (pour collaborative agent teams), consiste à diviser le problème en un ensemble de sous-problèmes, et assigner chacun de ces sous-problèmes à un agent qui devra le résoudre. Par la suite, les solutions à chacun de ces sous-problèmes sont combinées par d’autres agents afin d’obtenir une solution de qualité au problème initial. Des mécanismes efficaces sont conçus pour la division du problème, pour la résolution des sous-problèmes et pour l’intégration des solutions. L’approche CAT ainsi développée est utilisée pour résoudre le problème de design de réseaux logistiques en univers certain (déterministe). Finalement, des adaptations sont proposées à CAT permettant de résoudre des problèmes de design de réseaux logistiques en univers incertain (stochastique)

    Modéliser et analyser les risques de propagations dans les projets complexes : application au développement de nouveaux véhicules

    Get PDF
    The management of complex projects requires orchestrating the cooperation of hundreds of individuals from various companies, professions and backgrounds, working on thousands of activities, deliverables, and risks. As well, these numerous project elements are more and more interconnected, and no decision or action is independent. This growing complexity is one of the greatest challenges of project management and one of the causes for project failure in terms of cost overruns and time delays. For instance, in the automotive industry, increasing market orientation and growing complexity of automotive product has changed the management structure of the vehicle development projects from a hierarchical to a networked structure, including the manufacturer but also numerous suppliers. Dependencies between project elements increase risks, since problems in one element may propagate to other directly or indirectly dependent elements. Complexity generates a number of phenomena, positive or negative, isolated or in chains, local or global, that will more or less interfere with the convergence of the project towards its goals. The thesis aim is thus to reduce the risks associated with the complexity of the vehicle development projects by increasing the understanding of this complexity and the coordination of project actors. To do so, a first research question is to prioritize actions to mitigate complexity-related risks. Then, a second research question is to propose a way to organize and coordinate actors in order to cope efficiently with the previously identified complexity-related phenomena.The first question will be addressed by modeling project complexity and by analyzing complexity-related phenomena within the project, at two levels. First, a high-level factor-based descriptive modeling is proposed. It permits to measure and prioritize project areas where complexity may have the most impact. Second, a low-level graph-based modeling is proposed, based on the finer modeling of project elements and interdependencies. Contributions have been made on the complete modeling process, including the automation of some data-gathering steps, in order to increase performance and decrease effort and error risk. These two models can be used consequently; a first high-level measure can permit to focus on some areas of the project, where the low-level modeling will be applied, with a gain of global efficiency and impact. Based on these models, some contributions are made to anticipate potential behavior of the project. Topological and propagation analyses are proposed to detect and prioritize critical elements and critical interdependencies, while enlarging the sense of the polysemous word “critical."The second research question will be addressed by introducing a clustering methodology to propose groups of actors in new product development projects, especially for the actors involved in many deliverable-related interdependencies in different phases of the project life cycle. This permits to increase coordination between interdependent actors who are not always formally connected via the hierarchical structure of the project organization. This allows the project organization to be actually closer to what a networked structure should be. The automotive-based industrial application has shown promising results for the contributions to both research questions. Finally, the proposed methodology is discussed in terms of genericity and seems to be applicable to a wide set of complex projects for decision support.La gestion de projets complexes nécessite d’orchestrer la coopération de centaines de personnes provenant de diverses entreprises, professions et compétences, de travailler sur des milliers d'activités, livrables, objectifs, actions, décisions et risques. En outre, ces nombreux éléments du projet sont de plus en plus interconnectés, et aucune décision ou action n’est indépendante. Cette complexité croissante est l'un des plus grands défis de la gestion de projet et l'une des causes de l'échec du projet en termes de dépassements de coûts et des retards. Par exemple, dans l'industrie automobile, l'augmentation de l'orientation du marché et de la complexité croissante des véhicules a changé la structure de gestion des projets de développement de nouveaux véhicules à partir d'une structure hiérarchique à une structure en réseau, y compris le constructeur, mais aussi de nombreux fournisseurs. Les dépendances entre les éléments du projet augmentent les risques, car les problèmes dans un élément peuvent se propager à d'autres éléments qui en dépendent directement ou indirectement. La complexité génère un certain nombre de phénomènes, positifs ou négatifs, isolés ou en chaînes, locaux ou globaux, qui vont plus ou moins interférer avec la convergence du projet vers ses objectifs.L'objectif de la thèse est donc de réduire les risques associés à la complexité des projets véhicules en augmentant la compréhension de cette complexité et de la coordination des acteurs du projet. Pour ce faire, une première question de recherche est de prioriser les actions pour atténuer les risques liés à la complexité. Puis, une seconde question de recherche est de proposer un moyen d'organiser et de coordonner les acteurs afin de faire face efficacement avec les phénomènes liés à la complexité identifiés précédemment.La première question sera abordée par la modélisation de complexité du projet en analysant les phénomènes liés à la complexité dans le projet, à deux niveaux. Tout d'abord, une modélisation descriptive de haut niveau basée facteur est proposé. Elle permet de mesurer et de prioriser les zones de projet où la complexité peut avoir le plus d'impact. Deuxièmement, une modélisation de bas niveau basée sur les graphes est proposée. Elle permet de modéliser plus finement les éléments du projet et leurs interdépendances. Des contributions ont été faites sur le processus complet de modélisation, y compris l'automatisation de certaines étapes de collecte de données, afin d'augmenter les performances et la diminution de l'effort et le risque d'erreur. Ces deux modèles peuvent être utilisés en conséquence; une première mesure de haut niveau peut permettre de se concentrer sur certains aspects du projet, où la modélisation de bas niveau sera appliquée, avec un gain global d'efficacité et d'impact. Basé sur ces modèles, certaines contributions sont faites pour anticiper le comportement potentiel du projet. Des analyses topologiques et de propagation sont proposées pour détecter et hiérarchiser les éléments essentiels et les interdépendances critiques, tout en élargissant le sens du mot polysémique "critique".La deuxième question de recherche sera traitée en introduisant une méthodologie de « Clustering » pour proposer des groupes d'acteurs dans les projets de développement de nouveaux produits, en particulier pour les acteurs impliqués dans de nombreuses interdépendances liées aux livrables à différentes phases du cycle de vie du projet. Cela permet d'accroître la coordination entre les acteurs interdépendants qui ne sont pas toujours formellement reliés par la structure hiérarchique de l'organisation du projet. Cela permet à l'organisation du projet d’être effectivement plus proche de la structure en « réseau » qu’elle devrait avoir. L'application industrielle aux projets de développement de nouveaux véhicules a montré des résultats prometteurs pour les contributions aux deux questions de recherche

    L'AIS : une donnée pour l'analyse des activités en mer

    Get PDF
    4 pages, session "Mer et littoral"International audienceCette contribution présente des éléments méthodologiques pour la description des activités humaines en mer dans une perspective d'aide à la gestion. Différentes procédures, combinant l'exploitation de bases de données spatio-temporelles issue de données AIS archivées à des analyses spatiales au sein d'un SIG, sont testées afin de caractériser le transport maritime en Mer d'Iroise (Bretagne, France) sur les plans spatiaux, temporels et quantitatifs au cours d'une année

    Reconstruction d'un système sociosémantique par apprentissage machine

    Get PDF
    L'objectif de recherche de cette thèse est la reconstruction par apprentissage machine du mécanisme sociocognitif à l'œuvre dans l'évolution d'un réseau sociosémantique. Cet objectif est basé sur l'hypothèse que la dynamique d'un réseau sociosémantique est déterminée par un mécanisme d'influence sociale basé sur des facteurs d'exposition sociale, de contagion sociale, de déférence et de mimétisme des semblables. Une méthode de fouille de données basée sur l'analyse des réseaux sociaux, la sémantique vectorielle et l'apprentissage machine est développée afin de reconstruire différents modèles de l'influence sociale permettant de prédire l'évolution d'un réseau sociosémantique. Ces modèles sont des arbres de décisions, des listes de règles, des forêts aléatoires et des modèles probabilistes naïfs. L'analyse de ces modèles prédictifs suggère que l'hypothèse de recherche est vraisemblable, mais que d'autres mécanismes sont également à l'œuvre dans le processus étudié.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Réseau sociosémantique, apprentissage machine, réseau social, sémantique vectorielle, influence sociale

    Programmation primale en nombres entiers pour la résolution efficace d’un problème de tournées de véhicules riche : théorie et pratique

    Get PDF
    RÉSUMÉ: Concilier enseignement théorique et réalités professionnelles ; telle est la mission de la recherche opérationnelle. Résoudre une problématique complexe avec toutes les contraintes du monde réel est d’une grande difficulté, qui requiert une méthodologie de recherche rigoureuse doublée d’une perspective d’intervention toujours présente. Concrètement, les problèmes industriels sont beaucoup plus complexes dans la réalité que ce qu’ils sont en théorie. Une bonne solution réalisable au sens mathématique n’a pas la même signification en pratique. Un bon algorithme pour l’industrie doit réunir des capabilités telles la rapidité, la fiabilité, la flexibilité et la simplicité. Le problème de tournées de véhicules (VRP : vehicle routing problem) constitue un sujet impérieux de la recherche opérationnelle. Il représente en effet la traduction mathématique d’innombrables applications de la vie courante. Nous nous emploierons à résoudre une problématique de transport prépondérante chez la majorité des prestataires de services logistiques qui, rappelons-le, sont des facilitateurs intégrés dont la mission est de gérer les opérations logistiques de plusieurs donneurs d’ordre. Ils planifient notamment la circulation d’une légion de commodités le long de réseaux logistiques très complexes. C’est dans ce contexte que les VRPs sont particulièrement riches en contraintes, et très difficiles à résoudre. Un défi qui a progressivement édifié notre projet. Après une analyse approfondie des flux et une cartographie logistique, le maillon faible de la chaîne a été identifié, en l’occurrence la livraison du dernier kilomètre. Celle-ci implique la distribution d’une marchandise variée depuis un centre de distribution urbain vers une panoplie de clients finaux (grande distribution, détaillant, particulier, etc.). Jusqu’à ce jour, les efforts se sont plutôt concentrés à modéliser ces difficultés comme un VRP riche, incluant un large spectre de contraintes endogènes (capacité, véhicules hétérogènes, fenêtres de temps, etc.) et exogènes (règles de la profession, options de livraison, compatibilité, etc.). Toutefois, une solution ne peut être réellement implémentable que si elle est en concordance avec les configurations opérationnelles et managériales. Les méthodes de résolution des VRPs sont scindées en des méthodes heuristiques, et des méthodes exactes. Les méthodes heuristiques parviennent généralement à réaliser un bon compromis entre la qualité et le coût de la solution, mais tout en exigeant un effort substantiel pour raffiner les valeurs des paramètres. En contrepartie, les méthodes exactes garantissent l’optimalité, mais peinent à résoudre les variantes riches du VRP. L’examen de l’état de l’art montre que, à l’encontre des méthodes exactes de Branch-and-Price, les méthodes primales exactes sont très peu abordées. La présente thèse serait la première implémentation des méthodes primales exactes dans un contexte de VRP riche et réel. Nous avons utilisé et adapté un algorithme de génération de colonnes en nombres entiers dit ICG (ICG : integral column generation) qui combine un algorithme primal dans un schéma de génération de colonnes. Composé de quatre modules séquentiels, chacun coopère pour trouver une solution entière optimale ou presque optimale, sans avoir recours aux méthodes traditionnelles tels le branchement ou l’ajout des coupes. Cette capabilité est l’un des facteurs clés de réussite, qui a permis la résolution efficace d’un problème réel et difficile. Dans la première contribution, nous avons réussi une première implémentation de ICG dans le cadre d’un VRP réel avec fenêtres de temps, flotte hétérogène interne et externe, contraintes de compatibilité de sites et un éventail de règles de métiers. Le problème maître (PM) a été formulé comme un problème de partitionnement d’ensembles SPP (SPP : set partitioning problem), et le sous-problème (SP) a été modélisé comme un problème de plus court chemin avec contraintes de ressources, modélisé sur un graphe orienté cyclique. Dans ICG, le problème maître restreint (PMR) est résolu à l’aide de l’algorithme primal ISUD (ISUD : integral simplex using decomposition), tandis que le SP est résolu à l’aide de la programmation dynamique. ISUD décompose le PMR en deux sous-problèmes. Le problème réduit (PR) contient les colonnes compatibles avec la solution entière courante S, et cherche une solution entière améliorante. D’autre part, le problème complémentaire (PC) contient les colonnes incompatibles avec S et vise à trouver des directions de descente entières. Littéralement, une colonne est dite compatible avec S si elle peut s’écrire comme combinaison linéaire des colonnes de la solution, sinon elle est dite incompatible. Les résultats de l’expérimentation, conduite sur sept journées opérationnelles, ont fait surgir aussi bien le potentiel d’amélioration de la méthode, que la nécessité de répondre à des questions relevant du fondement théorique. Dans la deuxième contribution, la performance de ICG a été hissée en opérant deux stratégies d’amélioration : (i) au niveau du SP, nous avons proposé une modélisation intelligente et réaliste du réseau de distribution cyclique. Ceci a été performé grâce à une analyse affûtée des caractéristiques des clients et de l’historique des livraisons. Cette amélioration a permis d’économiser une partie considérable du temps investi pour résoudre les SPs. (ii) D’autre part, nous avons évité d’utiliser le branchement en implémentant une stratégie dite de multiphase, qui consiste à résoudre le PC uniquement pour les colonnes qui se trouvent à une certaine distance de la solution courante. Dans la majorité des itérations, le PC trouve directement des directions qui mènent vers des solutions entières. Pour le reste, le module de recherche de voisinage permet souvent d’aboutir rapidement à une solution entière dans le voisinage de la solution courante. Finalement, vu son éventuelle influence sur la performance de l’algorithme,il était crucial d’analyser, aussi bien théoriquement qu’empiriquement, la qualité de la solution duale que nous utilisons. La performance confirmée de l’algorithme a été démontrée sur 30 instances réelles d’un VRP riche, incluant jusqu’à 199 clients, et ce en comparaison avec une méthode duale fractionnaire de type Branch-and-Price. Tous les résultats ont fait l’objet de tests rigoureux et dont la réalisabilité a été testée et validée en pratique. À travers cette thèse, notre objectif ultime est de proposer non seulement un algorithme efficace, mais également la stratégie propice pour le mettre en place dans la pratique. La troisième contribution se veut d’apporter une brique manquante à la méthodologie de résolution des VRPs dans le milieu pratique. Nous avons capitalisé notre expérience dans une étude de cas réelle, qui étudie la problématique de VRP sous la perspective d’un prestataire logistique intégré. La stratégie expliquée et les outils exposés constituent un guide utile pour mener à bien la résolution d’un VRP en pratique tout en mettant à jour un savoir-faire bienvenu auprès de la communauté des chercheurs et des étudiants. Dans la dernière contribution, nous avons présenté une étude initiale portant sur deux pistes d’amélioration susceptibles de renforcer la performance de la méthode primale ICG. L’objectif ultime serait d’implémenter une technique efficace de telle sorte que la recherche des solutions entières se fasse dans des voisinages potentiels, et ce, sans pénaliser le temps total de calcul. Dans un premier temps, nous avons implémenté une première approche dite ZOOM, où le processus de recherche est guidé par une direction de descente fractionnaire. Les résultats numériques préliminaires ont clairement montré que ZOOM a considérablement amélioré la performance de ICG. Ceci nous a conduits à proposer une seconde approche, qui consiste à remplacer ZOOM par une heuristique. Dans un premier temps, nous avons testé la viabilité d’une heuristique hybride adaptative, dite H-ALNS (H-ALNS : Hybrid Adaptive Large Neighbourhood Search) sur nos instances. Les résultats obtenus ont révélé que l’heuristique n’est relativement performante que sur les petites instances. Ce constat nous a incités à proposer des dispositifs adéquats afin de réussir l’incorporation de H-ALNS à ICG. Ces techniques exploitent les informations de nature duale et primale pour décider des arcs à éliminer. En effet, les arcs coûteux, longs ou rarement empruntés seraient dynamiquement enlevés. L’implémentation d’une telle stratégie d’hybridation est une piste de recherche qui est en cours d’exploration. Les résultats des contributions réalisées jusqu’ici témoignent de la viabilité de la piste de recherche explorée dans le cadre de ce projet de recherche. Avec ces aboutissements, nous avons droit de penser que la programmation primale en nombres entiers est un paradigme facilement transférable en pratique, qui mérite d’être amplement employé afin de résoudre efficacement des VRPs riches.----------ABSTRACT: The mission of operational research is to reconcile theoretical knowledge and practical business realities. Solving a complex problem with real-world constraints is very difficult, requiring a rigorous research methodology coupled with an unfailing intervention perspective. In practice, industrial problems are much more complex than they are in theory. A good feasible solution in the mathematical sense is not the same in practice. A practical algorithm for industry must combine capabilities such as speed, reliability, adaptability and simplicity. The vehicle routing problem (VRP) is a compelling topic for operational research. It represents the mathematical description of countless applications in everyday life. We aim to solve a major transport problem arising within most logistics service providers. The latter have the mission to manage the logistics operations of several contractors. In particular, they schedule the routing of a huge number of commodities across extremely complex logistics networks. In this context, VRPs are particularly rich in constraints, and very difficult to tackle. Such a challenge has gradually built up our project. After an extensive flow analysis and logistics mapping, the weak leg of the value chain was identified, namely the last mile delivery. This involves the distribution of a variety of goods from urban distribution centers to a range of end consumers (supermarkets, retailers, individuals, etc.). To date, efforts have tended to focus on modeling this problem as a rich VRP, encompassing a wide range of constraints such as time windows, heterogeneous fleet, business rules, delivery options, and compatibility. Nevertheless, a proper solution can be implemented only if it is in line both with operational and managerial configurations. The methods for solving VRPs are split into heuristic methods and exact methods. Heuristic methods generally manage to achieve a good compromise between the quality and the cost of the solution, but require a substantial effort to refine the parameters values. On the other hand, exact methods guarantee optimality, but are struggling to solve the rich variants, and are restricted to tractable problems. Examination of the state of the art showed that, in contrast to dual fractional methods, very little attention has been devoted to exact primal methods. The present thesis would be the first successful deployment of exact primal methods in a rich and real VRP context. We have used and adapted the integral column generation (ICG) algorithm, which combines a primal algorithm in a column generation scheme. Composed of four modules, each one cooperates to find an optimal or near-optimal integer solution, without using traditional methods such as branching or adding cuts. This capability is one of the key success factors, which enabled the effective resolution of a difficult real-world problem. In the first contribution, we successfully performed a first implementation of ICG in the context of a real VRP problem with time windows, internal and external heterogeneous fleet, site compatibility constraints and a range of business rules. The master problem was formulated as a set partitioning problem (SPP), and the sub-problem (SP) was modeled as a shortest path problem with resource constraints, modeled on a cyclic oriented graph. ICG is a sequential algorithm where the restricted master problem (RMP) is solved using the integral simplex using decomposition (ISUD) algorithm, while the SP is solved using dynamic programming. ISUD decomposes the RMP into two sub-problems. The complementary problem (CP) contains the incompatible columns, and aims at finding integer descent directions. On the other hand, the reduced problem (RP) deals with the compatible columns and looks for an improving integer solution. Literally, a column is said to be compatible with a solution S if it can be written as a linear combination of its columns, otherwise it is said to be incompatible. The computational results, conducted over seven operational days, highlighted both the potential for improvement of the method and the need to address theoretical underlying issues. In the second contribution, ICG’s performance was enhanced by operating two improvement strategies: (i) at the SP level, we proposed an intelligent and realistic modeling of the cyclic distribution network. This was achieved through a careful analysis of the customers’ characteristics and the historical delivery records. This improvement saved a considerable amount of time invested in solving the SPs. On the other hand, (ii) we avoided using branching by implementing a so-called multiphase strategy, which consists in solving the CP only for columns which are at a specific distance from the current solution. In the majority of iterations, the CP directly found directions leading to integer solutions. For the rest, the Neighborhood Search module generally leads quickly to an integer solution in the neighborhood of the current solution. Finally, given its possible impact on the performance of the algorithm, it was crucial to analyze, both theoretically and empirically, the quality of the dual solution we have used. The well-proven performance of the algorithm was demonstrated on 30 real instances of a rich VRP, with up to 199 clients, in comparison with a Branch-and-Price method. All results have been carefully tested and practically validated for feasibility. Through this thesis, our main purpose is to propose not only an efficient algorithm, but also the appropriate strategy to put it into practice. The third contribution aims to provide a methodology of solving VRPs in the practical environment. We have capitalized on our experience through a real-life case study, which explores the problem of VRP from the perspective of an integrated logistics provider. The strategy outlined and the described tools provide a useful guide to successfully resolve a VRP in practice, while at the same time updating a know-how that is welcomed by the research community and its students. In the last contribution, we presented an introductory study for further improvements to enhance the performance of the primal ICG method. The idea is to implement an efficient technique so that the search for integer solutions is conducted in potential neighborhoods, yet without penalizing the total computing time. As a first step, we have deployed a first technique called ZOOM, where the search process is guided by a fractional descent direction. Preliminary numerical results clearly showed that ZOOM has significantly improved ICG performance in terms of computing time. Next, we applied a hybrid adaptive heuristic called H-ALNS (H-ALNS: Hybrid Adaptive Large Neighbourhood Search). To begin with, we tested the viability of the heuristic on our instances. The results achieved then prompted us to consider a suitable hybridization strategy, offering a good compromise between the heuristic’s properties and those of an exact primal method. This subject is still an ongoing research topic. The results of the contributions made so far testify to the viability of the research topic that was explored in this thesis. Thus, we believe that integer primal programming paradigm is easily transferable in practice and that merits to be widely employed in solving rich VRPs models

    Actes des Sixièmes journées nationales du Groupement De Recherche CNRS du Génie de la Programmation et du Logiciel

    Get PDF
    National audienceCe document contient les actes des Sixièmes journées nationales du Groupement De Recherche CNRS du Génie de la Programmation et du Logiciel (GDR GPL) s'étant déroulées au CNAM à Paris du 11 au 13 juin 2014. Les contributions présentées dans ce document ont été sélectionnées par les différents groupes de travail du GDR. Il s'agit de résumés, de nouvelles versions, de posters et de démonstrations qui correspondent à des travaux qui ont déjà été validés par les comités de programmes d'autres conférences et revues et dont les droits appartiennent exclusivement à leurs auteurs

    Modélisation paramétrique en conception architecturale : Caractérisation des opérations cognitives de conception pour une pédagogie

    Full text link
    This research focuses on the uses of parametric modeling in architectural design. The object of this research is to identify cognitive operations involved in these uses. The characterisation of these mental operations is then a support to develop pedagogy and didactics tools. Analyses of design practices in professional contexts show that parametric modeling is linked to various computer assisted tasks: complex form finding and representation, evaluation, optimization, fabrication, communication, collaboration etc. We observed in our analyses that most often parametric modeling actors are not the one who design projects. Parametric modeling requires expert skills and knowledge that most architects have not yet mastered. How architects could be assisted for parametric modeling during the design process and how they could be trained are thus crucial questions. In order to address these questions we searched to identify the characteristics of the cognitive operations implied in the uses of parametric modeling in architectural design. We used Architecturology as scientific support of the research. Architecturology provides a scientific language for describing cognitive operations of architectural design. This language aims to interrogate conception through cognitive operations of giving measurements to an artifact. In this reseach, we distinguished operations that give measurement to an architectural object and operations that give measurement to a parametric model’s object. We found out different kind of operations implied in parametric model conception: -elementary operation of conception (slicing, dimensioning and referencing) and; -pragmatic operation of conception (interpretating, pooling and translating in parametric geometry). These operations show that we can distinguish conception of parametric modelling and architectural design, but it also show that these operations are intricate. Relevancies and references implied in elementary operations of conception are porous. This porosity between parametric modelling and architectural design is allowed by the pragmatic operations and by the construction of a common knowledge. Thus the theoretical framework developed to analyze parametric architectural design situations leaded us to analyze various methodological or technical support tools proposed for assisting parametric modeling. For example, we analyzed the different supports provided by the large community of parametric modeling users and the “patterns” method developed by R. Woodbury. Thanks to the different results of the research (cognitive operation identified and existing helps analyzed) we proposed didactics tools for assisting architects to parametric design.Cette recherche porte sur les usages des logiciels dit de « modélisation paramétrique » en conception architecturale. Plus spécifiquement, sont interrogées les activités cognitives de conception impliquées lors de ces usages. L’architecturologie est le support scientifique de cette recherche. Les concepts de l’architecturologie permettent d’interroger les activités cognitives de conception en termes d’opérations d’attribution de mesures. Les résultats de cette thèse montrent que les principales opérations cognitives de conception de modèles paramétriques sont : - des opérations élémentaires de la conception telles qu’interrogées par l’architecturologie: le découpage, le dimensionnement et la référenciation ; - des opérations « pragmatiques », c'est-à-dire participant de la conception mais ne relevant pas directement d’une opération d’attribution de mesures, ces opérations sont : la mise en commun, l’interprétation, l’appropriation d’outil et l’opération de traduction en géométrie paramétrique ; des opérations de logiques relevant de l’induction ou de la vérification. Ces opérations nécessitent et participent à la construction d’un espace des savoirs de la modélisation paramétrique. Cet espace des savoirs ainsi que les opérations pragmatiques observées permettent une intrication par l'échange et le partage de pertinences et d'espaces de référence entre la conception de modèles paramétriques et la conception architecturale. Les analyses menées pointent les difficultés rencontrées dans ces activités de conception. La caractérisation des opérations de conception propres à l’usage de la modélisation paramétrique en conception architecturale a permis d’interroger la méthode des patterns proposée par R. Woodbury. Ces patterns sont proposés comme une aide à la conception de modèles paramétriques en conception architecturale. L’analyse des usages de ces patterns montre que si ceux-ci sont potentiellement une aide puissante, leur généricité les rend difficiles d’accès. Cette méthode peut être complétée par le développement d’une bibliothèque de patterns appliqués (appelés samples) permettant à l’étudiant un apprentissage par l’exemple et par induction. Un support d’apprentissage s’appuyant sur ces résultats a été développé et testé lors de la thèse sur la plateforme www.parametric-ressources.com. Les connaissances construites dans cette thèse sur l'usage de la modélisation paramétrique en conception architecturale a permis de proposer une pédagogie visant à accompagner l'apprentissage des activités cognitives sollicitées. Des objectifs pédagogiques ont été définis par rapport aux opérations cognitives que l'étudiant doit pouvoir mettre en œuvre. Une pédagogie par le projet ainsi qu'une pédagogie par travaux dirigés sont proposées en vue de répondre à ces objectifs
    corecore