84 research outputs found

    On the representation of the search region in multi-objective optimization

    Full text link
    Given a finite set NN of feasible points of a multi-objective optimization (MOO) problem, the search region corresponds to the part of the objective space containing all the points that are not dominated by any point of NN, i.e. the part of the objective space which may contain further nondominated points. In this paper, we consider a representation of the search region by a set of tight local upper bounds (in the minimization case) that can be derived from the points of NN. Local upper bounds play an important role in methods for generating or approximating the nondominated set of an MOO problem, yet few works in the field of MOO address their efficient incremental determination. We relate this issue to the state of the art in computational geometry and provide several equivalent definitions of local upper bounds that are meaningful in MOO. We discuss the complexity of this representation in arbitrary dimension, which yields an improved upper bound on the number of solver calls in epsilon-constraint-like methods to generate the nondominated set of a discrete MOO problem. We analyze and enhance a first incremental approach which operates by eliminating redundancies among local upper bounds. We also study some properties of local upper bounds, especially concerning the issue of redundant local upper bounds, that give rise to a new incremental approach which avoids such redundancies. Finally, the complexities of the incremental approaches are compared from the theoretical and empirical points of view.Comment: 27 pages, to appear in European Journal of Operational Researc

    Optimizing over the Efficient Set of a Multi-Objective Discrete Optimization Problem

    Get PDF
    Optimizing over the efficient set of a discrete multi-objective problem is a challenging issue. The main reason is that, unlike when optimizing over the feasible set, the efficient set is implicitly characterized. Therefore, methods designed for this purpose iteratively generate efficient solutions by solving appropriate single-objective problems. However, the number of efficient solutions can be quite large and the problems to be solved can be difficult practically. Thus, the challenge is both to minimize the number of iterations and to reduce the difficulty of the problems to be solved at each iteration. In this paper, a new enumeration scheme is proposed. By introducing some constraints and optimizing over projections of the search region, potentially large parts of the search space can be discarded, drastically reducing the number of iterations. Moreover, the single-objective programs to be solved can be guaranteed to be feasible, and a starting solution can be provided allowing warm start resolutions. This results in a fast algorithm that is simple to implement. Experimental computations on two standard multi-objective instance families show that our approach seems to perform significantly faster than the state of the art algorithm

    One-Exact Approximate Pareto Sets

    Full text link
    Papadimitriou and Yannakakis show that the polynomial-time solvability of a certain singleobjective problem determines the class of multiobjective optimization problems that admit a polynomial-time computable (1+ε,,1+ε)(1+\varepsilon, \dots , 1+\varepsilon)-approximate Pareto set (also called an ε\varepsilon-Pareto set). Similarly, in this article, we characterize the class of problems having a polynomial-time computable approximate ε\varepsilon-Pareto set that is exact in one objective by the efficient solvability of an appropriate singleobjective problem. This class includes important problems such as multiobjective shortest path and spanning tree, and the approximation guarantee we provide is, in general, best possible. Furthermore, for biobjective problems from this class, we provide an algorithm that computes a one-exact ε\varepsilon-Pareto set of cardinality at most twice the cardinality of a smallest such set and show that this factor of 2 is best possible. For three or more objective functions, however, we prove that no constant-factor approximation on the size of the set can be obtained efficiently

    Approximating Multiobjective Optimization Problems: How exact can you be?

    Full text link
    It is well known that, under very weak assumptions, multiobjective optimization problems admit (1+ε,,1+ε)(1+\varepsilon,\dots,1+\varepsilon)-approximation sets (also called ε\varepsilon-Pareto sets) of polynomial cardinality (in the size of the instance and in 1ε\frac{1}{\varepsilon}). While an approximation guarantee of 1+ε1+\varepsilon for any ε>0\varepsilon>0 is the best one can expect for singleobjective problems (apart from solving the problem to optimality), even better approximation guarantees than (1+ε,,1+ε)(1+\varepsilon,\dots,1+\varepsilon) can be considered in the multiobjective case since the approximation might be exact in some of the objectives. Hence, in this paper, we consider partially exact approximation sets that require to approximate each feasible solution exactly, i.e., with an approximation guarantee of 11, in some of the objectives while still obtaining a guarantee of 1+ε1+\varepsilon in all others. We characterize the types of polynomial-cardinality, partially exact approximation sets that are guaranteed to exist for general multiobjective optimization problems. Moreover, we study minimum-cardinality partially exact approximation sets concerning (weak) efficiency of the contained solutions and relate their cardinalities to the minimum cardinality of a (1+ε,,1+ε)(1+\varepsilon,\dots,1+\varepsilon)-approximation set

    Approche multicritère des problèmes de recherche documentaire

    No full text
    Les travaux en Recherche Documentaire montrent que de meilleures performances sont obtenues lorsque plusieurs sources de pertinence sont combinées pour produire un rangement des documents en réponse à une requête. Dans le cas où les documents sont évalués sur la base d un certain nombre d attributs ou critères, la majorité des approches classiques combinent les performances des documents selon ces attributs en construisant un score unique qui sert au classement des documents à retourner à l utilisateur. Lorsque l on ne dispose que des rangements des documents, plusieurs méthodes existent pour combiner ces listes en un seul rangement à retourner à l utilisateur. Dans les deux cas, nous proposons des méthodes de rangement issues du cadre de la théorie multicritère. Ces méthodes se basent sur des mécanismes d agrégation qui traduisent des règles de décision identifiant les raisons positive et négative pour juger si un document devrait obtenir un meilleur rang que les autres. La particularité ce ces méthodes est de tenir compte des spécificités de la Recherche Documentaire. Les résultats des expérimentations que nous avons conduites dans les deux contextes de recherche sont présentés.Research in Information Retrieval shows performance improvement when many sources of evidence are combined to produce a ranking of documents. When documents are evaluated according to some attributes or criteria, most current approaches assess document relevance by computing a single score which aggregates performance values w.r.t. these attributes. When only ranked lists of relevant documents are provided by multiple blackbox methods, most current approaches combine these lists into one single output result set. In both cases, we propose ranking methods within a multiple criteria framework using aggregation mechanisms based on decision rules identifying positive and negative reasons for judging whether a document should get a better ranking than another. The proposed methods deal well with the Information Retrieval distinctive features. Experimental results are reported in both contextsPARIS-DAUPHINE-BU (751162101) / SudocSudocFranceF

    An outranking approach for information retrieval

    No full text
    Over the last three decades, research in Information Retrieval (IR) shows performance improvement when many sources of evidence are combined to produce a ranking of documents. Most current approaches assess document relevance by computing a single score which aggregates values of some attributes or criteria. They use analytic aggregation operators which either lead to a loss of valuable information, e.g., the min or lexicographic operators, or allow very bad scores on some criteria to be compensated with good ones, e.g., the weighted sum operator. Moreover, all these approaches do not handle imprecision of criterion scores. In this paper, we propose a multiple criteria framework using a new aggregation mechanism based on decision rules identifying positive and negative reasons for judging whether a document should get a better ranking than another. The resulting procedure also handles imprecision in criteria design. Experimental results are reported showing that the suggested method performs better than standard aggregation operators.ouinonouirechercheInternationa

    Ranking projects for an electricity utility using ELECTRE III

    No full text
    Ranking and selecting projects is a common yet often difficult task with typically more than one dimension for measuring project impacts and more than one decision maker. We describe a project selection methodology developed and used since 1998 for Mighty River Power, a New Zealand electricity generator, which incorporates the ELECTRE III decision support tool. Although several other multiple criteria approaches could have been used, features of ELECTRE III such as outranking, and indifference and preference thresholds were well received by our decision makers. More than the use of a specific decision support tool, we focus particularly on the successful implementation of a simple, structured multicriteria methodology for a yearly project selection exercise and document this over 8 years in a changing managerial context

    Approximation et résolution des versions min-max et min-max regret de problèmes d'optimisation combinatoire

    No full text
    En théorie de la décision, des approches, basées sur la résolution des versions min-max (regret) de problèmes d optimisation, sont souvent utilisées en vue d obtenir des solutions qui ont un bon comportement dans le pire cas. La complexité de ces problèmes a été étudiée de manière approfondie au cours de la dernière décennie. Nous présentons certains résultats complémentaires de complexité et nous initions l étude de l approximation des versions min-max (regret) de plusieurs problèmes classiques tels que le plus court chemin, l arbre couvrant et le sac à dos, pour lesquels nous présentons des résultats positifs et négatifs.Outre cette étude théorique, nous nous intéressons à une application du critère de regret maximum et, d une manière générale, des approches robustes au problème d association de données. Formellement, le problème peut se modéliser comme un problème d affectation multidimensionnelle. Compte tenu des diverses sources d imprécision, le modèle n est pas souvent pertinent. Nous montrons qu il est utile d évaluer les coefficients de la fonction objectif à l aide d intervalles au lieu d utiliser les valeurs les plus vraisemblables. Différentes stratégies sont étudiées pour résoudre ce problème et des exemples numériques sont proposés pour démontrer l efficacité de notre approche.PARIS-DAUPHINE-BU (751162101) / SudocSudocFranceF

    Management de portefeuilles de projets (modèles multicritère d'évaluation, de sélection et d'argumentation)

    No full text
    Cette thèse traite du processus d évaluation et de sélection de projets sur la base de critères multiples. Outre la capacité du modèle à permettre une identification efficace des meilleurs projets et leur intégration à un portefeuille, l équité et la transparence sont des considérations importantes dans la conception de modèles d appui à ce processus. Nous proposons un cadre de travail général pour l évaluation de projets, Il reprend les codes de l analyse SWOT, dont de nombreuses organisations orientées projets sont familières. Nos contributions apportent des éléments de réponse à la question de l après SWOT , à laquelle ces organisations peuvent éprouver des difficultés à répondre. Dans ce cadre de travail, nous introduisons et discutons un modèle de préférences permettant de mesurer l importance des critères sur deux dimensions, représentant de manière indépendante leurs capacités de conviction et d opposition. Suivant l évaluation et en préalable à la sélection, le filtrage consiste à écarter les projets trop inadéquats. Nous proposons un mécanisme basé sur la dominance pour effectuer cette opération. Nous proposons, enfin, deux méthodes de sélection de projets, chacune étant basée sur une procédure d agrégation multicritère originale. La première méthode, SPADE (pour Structure de Préférence pour l Aide à la Décision) est une approche de surclassement, destinée à des contextes où les préférences exprimées concernent essentiellement les projets individuels, et dans lesquels les décisions concernant un projet peuvent être argumentées en référence à des projets tiers. Nous garantissons la validité théorique de SPADE, en amont, ce qui permet un temps de mise en œuvre réduit et une utilisation en temps réel. En pratique, nous illustrons l application de SPADE, en la comparant à deux autres approches d aide multicritères à la décision, MAUT et ELECTRE, en mettant en exergue ses spécificités. La seconde méthode, RADAR (Règles d Aide à la Décision et à l ARgumentation) est une approche à base de règles logiques. Elle est destinée à des contextes plus contraints dans lesquels les préférences exprimées concernent à la fois les projets individuels, mais aussi le portefeuille de projets (degré de diversification, budget total, etc.). De plus, l'argumentation des décisions est ici basée exclusivement sur la qualité intrinsèque des projets en référence à une norme fixe. RADAR permet également la construction automatique de tels arguments. Nous proposons un programme linéaire en variable mixtes permettant de valider théoriquement cette approche. Cependant, sa résolution est nécessaire à chaque mise en œuvre de RADAR, ce qui limite l application de cette approche au temps différé. Nous illustrons une telle application sur un jeu de données représentant des évaluations de projets financés par le Fond des Nations Unies pour la Démocratie (UNDEF).Project portfolio management (PPM) involves the use of methods and tools, allowing an organization to plan, evaluate, analyze and screen the execution of a set of projects or project proposals, sharing common resources or aiming at the attainment of common objectives. Multicriteria decision aid models are useful tools to support this process, given their ability to accurately model preferences, and rationally agregate points of view. However, existing models present some lacks that limit their use outside of academic circles : (i) They neglect the non-symetrical nature of the importance of some criteria that are relevant in PPM. (ii) The black box effect makes it hard to use them for the argumentation of decisions and to gain their acceptance by users (iii) They are implicitly fitted for private/for-profit projects, which limits their use in public organizations. In this thesis, our contribution consists in proposing two multicriteria methods for supporting the activities of evaluating, selecting and arguing decision, for project portfolio management. We propose: (i) An analysis of the specific features of public and private projects and their consequences for decision support (ii) A framework that allows an independent modeling of the abilities of a criterion to oppose and convince (iii) Two transparent multicriteria agregation procedures, fitted for different decision contexts. We ensure the theoretical validity of our approaches and illustrate their applicability on real data, with satisfying results.PARIS-DAUPHINE-BU (751162101) / SudocSudocFranceF
    corecore