23 research outputs found
Autocontinuity and convergence theorems for the Choquet integral
Our aim is to provide some convergence theorems for the Choquet integral with respect to various notions of convergence. For instance, the dominated convergence theorem for almost uniform convergence is related to autocontinuous set functions. Autocontinuity can also be related to convergence in measure, strict convergence or mean convergence. Whereas the monotone convergence theorem for almost uniform convergence is related to monotone autocontinuity, a weaker version than autocontinuity.
A Radon-Nikodym derivative for almost subadditive set functions
In classical measure theory, the Radon-Nikodym theorem states in a concise condition, namely domination, how a measure can be factorized by another (bounded) measure through a density function. Several approaches have been undertaken to see under which conditions an exact factorization can be obtained with set functions that are not σ-additive (for instance finitely additive set functions or submeasures). We provide a Radon-Nikodym type theorem with respect to a measure for almost subadditive set functions of bounded sum. The necessary and sufficient condition to guarantee a one-sided Radon-Nikodym derivative remains the standard domination condition for measures.
Decision making over imprecise lotteries
Since von Neuman and Morgenstern's (1944) contribution to game theory, the expected utility criterion has become the standard functional to evaluate risky prospects. Risky prospects are understood to be lotteries on a set of prizes. In which case a decision maker will receive a precise prize with a given probability. A wide interest on imprecise object has been developped since Zadeh's (1978) contribution to artificial intelligence, through the use of possibility function (see Dubois Prade (1988)). In this setting a decision maker is uncertain about the precise features of the object he is dealing with. A first step has been readily made to rank imprecise objects in Rébillé (2005). Our objective is to build a decision theory which deals with imprecise lotteries i.e. lotteries on imprecise prizes, a typical situation encountered in Ellsberg's experiment (1961).Non-additive measures, possibility theory, Choquet integral, decision making.
Decision making over necessities through the Choquet integral criterion
Since von Neuman and Morgenstern's (1944) contribution to game theory, a rational decision maker will rank risky prospects according to the celebrated Expected utility criterion. This method takes lotteries i.e. (simple) probability distributions to represent risky prospects. If the decision maker follows the vN-M axioms (e.g.Kreps (1988)) then there exists a utility function such that any probability can be resumed to a lottery having for support the best and the worst state, where the probability that he wins the bet is given by its expected utility. Probalities are precise objects to model risk, but the way they do it is incoherent (Dubois and Prade (1988)). A familiar object in fuzzy set theory is the one of necessity or its dual version a possibility. In which case the occurence of an event is given by an interval which expresses the imprecision. Nevertheless the description of risk is coherent. Our concern is to rank different necessity measures and rank them according to the Choquet Expectation criterion (Choquet (1953)). If the decision maker follows our set of axioms then there exists a fuzzy set (Zadeh (1978)) such that any necessity can be resumed to a bet on being perfectly informed of the state which occurs or being totally ignorant, where the degree of information he will get is given by its Choquet expectation.Non-additive measures, possibility theory, expected utility.
Influence and Social Tragedy in Networks
We model agents in a network game of strategic complements and negative externalities. Sufficient conditions for the existence of a unique Nash equilibrium and of a unique social optimum are established. Under these conditions, we find that players with more vulnerable locations in the network exert more effort at equilibrium, and that the most influential players should exert less effort at efficiency. We then find structural conditions under which each player exerts strictly more effort than her efficient level, whether the social optimum be interior or not
A Yosida-Hewitt decomposition for totally monotone games on locally compact sigma-compact topological spaces
URL des Cahiers : https://halshs.archives-ouvertes.fr/CAHIERS-MSECahiers de la Maison des Sciences Economiques 2005.87 - ISSN : 1624-0340We prove for totally monotone games defined on the set of Borel sets of a locally compact s-compact topological space a similar decomposition theorem to the famous Yosida-Hewitt's one for finitely additive measures. This way any totally monotone decomposes into a continuous part and a pathological part which vanishes on the compact subsets. We obtain as corollaries some decompositions for finitely additive set functions and for minitive set functions.Nous obtenons une décomposition à la Yosida-Hewitt pour les jeux totalement monotones définis sur un espace topologique localement compact et s-compact. Ainsi tout jeu totalement monotone se décompose en une partie continue et une partie pathologique s'annulant sur les compacts. Nous obtenons en corollaires des décompositions pour les fonctions d'ensemble additives et pour les fonctions d'ensemble minitives
Decision making over imprecise lotteries
URL des Cahiers : https://halshs.archives-ouvertes.fr/CAHIERS-MSECahiers de la Maison des Sciences Economiques 2005.89 - ISSN : 1624-0340Since von Neuman and Morgenstern's (1944) contribution to game theory, the expected utility criterion has become the standard functional to evaluate risky prospects. Risky prospects are understood to be lotteries on a set of prizes. In which case a decision maker will receive a precise prize with a given probability. A wide interest on imprecise object has been developped since Zadeh's (1978) contribution to artificial intelligence, through the use of possibility function (see Dubois Prade (1988)). In this setting a decision maker is uncertain about the precise features of the object he is dealing with. A first step has been readily made to rank imprecise objects in Rébillé (2005). Our objective is to build a decision theory which deals with imprecise lotteries i.e. lotteries on imprecise prizes, a typical situation encountered in Ellsberg's experiment (1961).Depuis la contribution de von Neumann et Morgenstern (1944) en théorie des jeux, le critère d'espérance d'utilité est devenu la fonctionnelle standard pour évaluer les objets risqués. Les objets risqués sont entendus comme étant des loteries sur un ensemble de prix. Dans ce cas un décideur recevra un objet précis avec une certaine probabilité. Un large intérêt sur les objets imprécis s'est développé depuis la contribution de Zadeh (1978) en intelligence artificielle, au travers des mesures de possibilités (Dubois-Prade (1988)). Dans ce cadre un décideur est incertain sur les caractéristiques propres des objets présents. Un premier pas a été fait dans Rébillé (2005) pour évaluer les objets imprécis. Notre objectif est de construire une théorie de la décision qui s'intéresse aux loteries imprécises i.e. des loteries sur des objets imprécis, une situation typique rencontrée dans l'expérience d'Ellsberg (1961))
SUR DES MODELES NON-ADDITIFS EN THEORIE DES CHOIX INTERTEMPORELS ET DE LA DECISION DANS L'INCERTAIN
Savage's (1954) model constitutes a main achievement in decision theory under uncertainty. It provides an axiomatization of subjective expected utility. A decision maker who fulfills the Savage's axioms chooses between acts according to their expected utility. Following this axiomatic method, additive representation can be obtained in different settings (Anscombe-Aumann (1963), Wakker (1990)). Despite the normative character of subjective expected utility models, empirical refutations arise quickly, for instance Ellsberg's paradox (1961). Choquet expected utility models can provide a response. Henceforth a decision maker does not have a subjective probability anymore but a subjective capacity (Choquet (1953)), a monotonic set function which is not necessarily additive. An integral theory with respect to capacities introduced by Choquet (1953), rediscovered and developed by Schmeidler (1986,1989) allows a generalization of the expected utility criterion. The axiomatic of Choquet expected utility models elaborated in an uncertainty framework can also be adapted in a temporal one. Hence the evaluation of a stream of incomes can be made in a non-additive way and embody variations between different successives periods (Gilboa (1989), De Waegenaere and Wakker (2001)). The first chapter deals with the integral representation of comonotonic additive and sequentially continuous from below or from above functionals. This representation through Choquet's (1953) integrals is based on sequential continuity, a natural condition in measure theory, and not on monotonicity as in Schmeidler (1986). Consequently games we consider are not necessarily monotonic but continuous from below or from above, properties which are equivalent to sigma-additivity for additive games. Finally, we provide some representation theorems for non-monotonic preferences but sequentially continuous from above or from below. The second chapter provides an axiomatization of some preferences in a temporal setting, which originates in Gilboa (1989) and carried on in Shalev (1997) in an Anscombe-Aumann's (1963) setting. We adopt here De Waegaenere and Wakker's (2001) method. Our aim is to take into account complementarities between different successive periods. For this we introduce a variation aversion axiom, that keeps additivity on income streams having the property of sequential comonotony. The extension to the infinite case is achieved through a behavioral axiom, myopia. Finally we present a generalization to the non-additive case of the discounted expected utility, axiomatized in Koopmans (1972). In the third chapter, we establish a Yosida-Hewitt(1952) decomposition theorem for totally monotone games on N, where any game is the sum of a sigma-continuous game and a pure game. This composition is obtained from an integral representation theorem on the set of belief functions, hence the Choquet (1953) integral of any bounded function, with respect to a totally monotone game admits an integral representation. Finally to every totally monotone sigma-continuous game is associated a unique M¨obius inverse on N; hence any Choquet integral of a bounded function on N with respect to a totally monotone sigma-continuous game obtains as the sum of an absolutely convergent series. The last chapter, deals with modelization of patience for countable streams of incomes. At first, we consider preferences that exhibits patience in the additive case. These preferences admit an integral representation with respect to pure probabilities, which coincide with Banach limits (Banach 1987). Then, we strenghten patience into time invariance. Lastly we consider naive patience, which leads to an impossibility theorem. Consequently, we give an extension of the preceeding results in a non-additive framework. We introduce a non-smooth additivity axiom which allows to represent preferences through a Choquet integral with convex capacity. In this case, patience translates into pure convex capacities. Likewise, time invariance expresses naturally in term of invariant convex capacities. Finally, naive patience admits for unique representation the inferior limit functional.Le modèle de Savage (1954) est une référence dans le domaine de la théorie de la décision dans l'incertain. Il présente une axiomatisation de l'espérance d'utilité subjective. Un décideur qui satisfait aux axiomes de Savage choisit entre différents actes d'après leur évaluation selon leur utilité espérée. En suivant cette méthode axiomatique, une représentation additive peut être obtenue dans différents cadres (Anscombe-Aumann (1963), Wakker (1990)). En dépit du caractère normatif des modèles d'espérance d'utilité subjective, des réfutations empiriques apparaissent rapidement, parmi elles le paradoxe d'Ellsberg (1961). Parmi les réponses apportées au paradoxe d'Ellsberg figurent les modèles d'espérance d'utilité à la Choquet. Désormais un décideur possède non pas une probabilité subjective mais une capacité (Choquet (1953)) subjective, fonction d'ensembles monotone qui n'est plus nécessairement additive. Une théorie de l'intégration par rapport aux capacités introduite par Choquet(1953), retrouvée et développée par Schmeidler (1986,1989) permet ainsi de généraliser le critère d'espérance d'utilité. L'axiomatique des modèles d'espérance d'utilité à la Choquet développée dans un cadre d'incertitude peut s'adapter également à un cadre temporel. Ainsi l'évaluation d'un flux de revenus peut se faire de manière non-additive et incorporer les variations entre différentes périodes successives (Gilboa (1989), De Waegenaere et Wakker (2001)). Le premier chapitre traite de la représentation intégrale des fonctionnelles comonotones additives et séquentiellement continues par en bas et/ou par en haut. Cette représentation à l'aide de l'intégrale de Choquet (1953) se base sur la continuité séquentielle, une condition usuelle en théorie de la mesure, et non pas sur la propriété de monotonie traitée par Schmeidler (1986). En conséquence les jeux considérés ici ne sont pas forcément monotones mais continus par en haut et/ou par en bas, propriétés équivalentes à la sigma-additivité dans le cas des jeux additifs. Finalement, nous proposons des théorèmes de représentation des préférences non-monotones mais séquentiellement continues par en haut ou par en bas. Le deuxième chapitre se propose d'axiomatiser certaines préférences dans un cadre temporel, méthode initiée par Gilboa (1989) et poursuivie par Shalev (1997) dans un cadre à la Anscombe-Aumann (1963). L'approche adoptée ici est similaire à celle de De Waegaenere et Wakker (2001). Notre approche a pour but de prendre en compte les complémentarités entre différentes périodes successives. Pour cela nous introduisons un axiome d'aversion aux variations, qui conserve l'additivité sur des flux de revenus ayant la propriété de séquentielle comonotonie. L'extension au cas infini est réalisée à partir d'un axiome comportemental : la myopie. Finalement nous présentons une généralisation au cas non-additif du modèle d'espérance escomptée, axiomatisé par Koopmans (1972). Dans le troisième chapitre, on établit un théorème de décomposition à la Yosida-Hewitt(1952) pour les jeux totalement monotones sur N, o`u tout jeu s'écrit comme somme d'un jeu sigma-continu et d'un jeu pur. Cette décomposition s'obtient à partir d'un théorème de représentation intégrale sur l'ensemble des fonctions de croyance, ainsi l'intégrale de Choquet (1953) de toute fonction bornée, par rapport à un jeu totalement monotone admet une représentation intégrale. Finalement tout jeu totalement monotone sigma-continu est mis en correspondance biunivoque avec une inverse de M¨obius sur N; ainsi toute intégrale de Choquet d'une fonction bornée sur N, par rapport à un jeu totalement monotone sigma-continu s'obtient comme somme d'une série absolument convergente. Le dernier chapitre, traite de la modélisation de la patience face à des flux dénombrables de revenus. Dans un premier temps, nous exposons les préférences patientes dans un cadre additif. Ces préférences admettent une représentation intégrale à l'aide de probabilités pures, ce qui coïncide en outre avec les limites de Banach (Banach 1987). Ensuite, nous renforçons la patience en invariance temporelle. Enfin nous considérons la patience naïve, ce qui aboutit à un théorème d'impossibilité. Nous développons de ce fait une extension des résultats obtenus précédemment dans un cadre non-additif. Nous introduisons un axiome d'additivité non-lisse qui nous permet de représenter les préférences avec une intégrale de Choquet à capacité convexe. Dans ce cas, la patience se traduit par des capacités convexes pures. De même, l'invariance temporelle s'exprime naturellement en terme de capacités convexes invariantes. En fin de compte, la patience naïve admet comme unique représentation la fonctionnelle limite inférieure
A Radon-Nikodym approach to measure information
We consider a decision maker facing uncertainty which behaves as a subjective expected utility maximizer. The value of information is traditionnaly captured as a greater expected utility the decision maker can achieve by selecting a best strategy as information arrives. We deal with the limit process of being better informed and introduce an information density function depending soley on the states that gives an exact least upper bound to being more informed. This information density function is given by a Radon-Nikodym's type theorem for set functions and is explicitely computed for the countable case.Decision making under uncertainty; value of information; expected utility; capacity; Radon-Nikodyn derivative
Equilibrium Existence and Uniqueness In Network Games with Additive Preferences
A directed network game of imperfect strategic substitutes with heterogeneous players is analyzed. We consider concave additive separable utility functions that encompass the quasi-linear ones. It is found that pure strategy Nash equilibria verify a non-linear complementarity problem. By requiring appropriate concavity in the utility functions, the existence of an equilibrium point is shown and equilibrium uniqueness is established with a P -matrix. Then, it appears that previous findings on network structure and sparsity hold for many more games