7 research outputs found

    Rational Agents: Prioritized Goals, Goal Dynamics, and Agent Programming Languages with Declarative Goals

    Get PDF
    I introduce a specification language for modeling an agent's prioritized goals and their dynamics. I use the situation calculus along with Reiter's solution to the frame problem and predicates for describing agents' knowledge as my base formalism. I further enhance this language by introducing a new sort of infinite paths. Within this language, I discuss how to systematically specify prioritized goals and how to precisely describe the effects of actions on these goals. These actions include adoption and dropping of goals and subgoals. In this framework, an agent's intentions are formally specified as the prioritized intersection of her goals. The ``prioritized'' qualifier above means that the specification must respect the priority ordering of goals when choosing between two incompatible goals. I ensure that the agent's intentions are always consistent with each other and with her knowledge. I investigate two variants with different commitment strategies. Agents specified using the ``optimizing'' agent framework always try to optimize their intentions, while those specified in the ``committed'' agent framework will stick to their intentions even if opportunities to commit to higher priority goals arise when these goals are incompatible with their current intentions. For these, I study properties of prioritized goals and goal change. I also give a definition of subgoals, and prove properties about the goal-subgoal relationship. As an application, I develop a model for a Simple Rational Agent Programming Language (SR-APL) with declarative goals. SR-APL is based on the ``committed agent'' variant of this rich theory, and combines elements from Belief-Desire-Intention (BDI) APLs and the situation calculus based ConGolog APL. Thus SR-APL supports prioritized goals and is grounded on a formal theory of goal change. It ensures that the agent's declarative goals and adopted plans are consistent with each other and with her knowledge. In doing this, I try to bridge the gap between agent theories and practical agent programming languages by providing a model and specification of an idealized BDI agent whose behavior is closer to what a rational agent does. I show that agents programmed in SR-APL satisfy some key rationality requirements

    GROVE: A computationally grounded model for rational intention revision in BDI agents

    Get PDF
    A fundamental aspect of Belief-Desire-Intention (BDI) agents is intention revision. Agents revise their intentions in order to maintain consistency between their intentions and beliefs, and consistency between intentions. A rational agent must also account for the optimality of their intentions in the case of revision. To that end I present GROVE, a model of rational intention revision for BDI agents. The semantics of a GROVE agent is defined in terms of constraints and preferences on possible future executions of an agent’s plans. I show that GROVE is weakly rational in the sense of Grant et al. and imposes more constraints on executions than the operational semantics for goal lifecycles proposed by Harland et al. As it may not be computationally feasible to consider all possible future executions, I propose a bounded version of GROVE that samples the set of future executions, and state conditions under which bounded GROVE commits to a rational execution

    Raisonnement stratégique et tactique : une approche pour la communication entre agents logiciels basée sur la pertinence

    Get PDF
    Dans cette thèse, nous proposons une approche de communication entre agents logiciels basée sur la pertinence. Le problème est pour nous de permettre aux agents logiciels participant à des interactions dialogiques argumentatives d'être plus efficaces dans leurs communications. Nous nous sommes focalisés sur les deux questions : 1) l'élaboration d'un modèle permettant aux agents de générer, d'adopter, d'annuler et de réaliser les sous-buts nécessaires à l'accomplissement de leurs buts conversationnels; 2) l'élaboration d'un modèle permettant aux agents de choisir à chaque étape de l'interaction dialogique, les arguments les plus pertinents qui contribuent à la réalisation de leurs buts conversationnels. En premier lieu, nous avons développé un modèle de raisonnement stratégique qui permet à un agent logiciel participant à une interaction dialogique d'avoir une orientation, en termes des contraintes à satisfaire et de sous-buts à accomplir, lui permettant de réaliser son but conversationnel. Notre idée fondamentale est de proposer un modèle de communication entre agents logiciels basé sur la notion de stratégie, au lieu des protocoles de communication. La stratégie d'un agent est déterminée par un raisonnement stratégique. Ce raisonnement permet d'une part, de choisir le plan global de la communication en termes de buts stratégiques à accomplir afin de réaliser le but conversationnel. D'autre part, le raisonnement stratégique permet d'orienter la réalisation d'un but en spécifiant les contraintes que l'agent veut satisfaire. Les buts stratégiques sont les sous-buts nécessaires à la réalisation du but conversationnel. Pour adopter ou réviser une stratégie, nous avons proposé un cadre formel basé sur les arguments pour gérer les buts stratégiques et les contraintes des agents. Les buts stratégiques sont générés au début du dialogue, comme ils peuvent être annulés ou remplacés par des alternatives pendant le déroulement de l'interaction dialogique. Ces alternatives sont d'une grande importance. En effet, elles permettent aux agents de persister dans la poursuite de leurs buts. Cependant, les contraintes reflètent les limites rencontrées par l'agent pour réaliser son but conversationnel. Ces contraintes peuvent être également générées au début ou au cours du déroulement de l'interaction dialogique. Un autre point important dans notre approche réside dans le fait que les agents peuvent vérifier à chaque instant qu'un but poursuivi est réalisable ou non, ce qui permet de renforcer la rationalité et l'efficacité des agents. Nous avons ensuite élaboré un modèle de raisonnement tactique permettant aux agents de réaliser leurs buts stratégiques élémentaires fixés par la stratégie adoptée d'une façon pertinente. Dans les approches argumentatives, les actions des agents sont justifiées par des arguments. Afin de permettre aux agents d'agir d'une façon pertinente, notre modèle de raisonnement permet de choisir à chaque étape de l'interaction dialogique l'argument le plus pertinent qui a, selon les connaissances de l'agent, la plus forte chance d'être accepté par l'interlocuteur. C'est l'argument qui va être utilisé pour supporter l'acte de langage permettant la réalisation d'un but stratégique élémentaire fixé par la stratégie adoptée par l'agent. Notre modèle de raisonnement tactique est guidé par un mécanisme de sélection. Ce mécanisme permet, dans un premier temps, de supprimer les arguments non pertinents. Ensuite, il permet d'établir un ordre entre les arguments pertinents en utilisant la relation d'ordre de pertinence. Cette relation est basée sur la relation de favori entre les arguments, les préférences privées de l'agent et le risque d'échec de chaque argument. Ce mécanisme emploie notre théorie de la pertinence qui tient compte du contexte de l'interaction dialogique. Un avantage important de l'utilisation de ce mécanisme de sélection réside dans le fait qu'il permet le retour-arrière pour explorer d'autres alternatives d'argumentation. Ceci permet à l'agent de persister davantage dans la réalisation de son but conversationnel. Notre modèle de raisonnement tactique permet également de comparer les arguments indépendamment de leurs conclusions. Ceci permet à l'agent de décider, selon l'argument le plus pertinent sélectionné, s'il va attaquer le point de vue de son adversaire ou s'il va défendre son point de vue. Par ailleurs, nous avons proposé un modèle de négociation basé sur les contraintes et utilisant l'argumentation. Dans ce modèle, chaque agent est capable de déterminer, à chaque étape de la négociation, l'ensemble de ses arguments potentiels et l'ensemble de ses offres potentielles. Chaque offre doit être justifiée par des arguments. Chaque agent essaye de réaliser son but en utilisant des arguments pour convaincre les autres agents de faire des concessions. La prise en compte des arguments reçus et de nouveaux arguments générés durant la négociation permet aux agents d'avoir des ensembles d'offres qui varient d'une étape à l'autre, ce qui permet de refléter l'aspect dynamique des négociations. Dans le cas où il y a plusieurs arguments qui supportent la même offre, nous utilisons notre modèle de raisonnement tactique pour déterminer l'argument le plus pertinent. Les contraintes de négociation permettent à chaque agent négociateur de déterminer son espace d'accord. Ainsi, chaque agent pourrait calculer son degré de satisfaction, soit pour chaque contrainte de négociation soit pour la négociation au complet. Notre modèle permet également à chaque agent négociateur de calculer ses offres en fonction de l'ensemble des variables associées aux contraintes de négociation, ce qui lui permet de garantir sa satisfaction et d'éviter le risque de faire des concessions excessives à l'autre agent. De plus, l'utilisation du processus d'argumentation, permet à nos agents de faire des concessions lorsque cela s'avère nécessaire, ce qui leur permet d'avoir plus de chances d'atteindre un accord. Pour décrire l'évolution de la négociation, nous proposons un algorithme qui spécifie le comportement de chaque agent dans les différentes situations. En outre, nous avons montré que notre approche permet à chaque agent de toujours choisir la meilleure offre et la négociation se termine toujours avec ou sans accord après un nombre fini d'étapes. S'il y a un accord dans une négociation donnée, nous avons montré que cet accord constitue un compromis satisfaisant pour les deux agents négociateurs. Nous avons également implémenté notre algorithme de négociation

    GROVE: A computationally grounded model for rational intention revision in BDI agents

    Get PDF
    A fundamental aspect of Belief-Desire-Intention (BDI) agents is intention revision. Agents revise their intentions in order to maintain consistency between their intentions and beliefs, and consistency between intentions. A rational agent must also account for the optimality of their intentions in the case of revision. To that end I present GROVE, a model of rational intention revision for BDI agents. The semantics of a GROVE agent is defined in terms of constraints and preferences on possible future executions of an agent’s plans. I show that GROVE is weakly rational in the sense of Grant et al. and imposes more constraints on executions than the operational semantics for goal lifecycles proposed by Harland et al. As it may not be computationally feasible to consider all possible future executions, I propose a bounded version of GROVE that samples the set of future executions, and state conditions under which bounded GROVE commits to a rational execution

    Dynamic interactions between goals and beliefs

    Get PDF
    Shapiro et al. [1,2], presented a framework for representing goal change in the situation calculus. In that framework, agents adopt a goal when requested to do so (by some agent reqr), and they remain committed to the goal unless the request is cancelled by reqr. A common assumption in the agent theory literature, e.g., [3,4], is that achievement goals that are believed to be impossible to achieve should be dropped. In this paper, we incorporate this assumption into Shapiro et al.'s framework, however we go a step further. If an agent believes a goal is impossible to achieve, it is dropped. However, if the agent later believes that it was mistaken about the impossibility of achieving the goal, the agent might readopt the goal. In addition, we consider an agent's goals as a whole when making them compatible with their beliefs, rather than considering them individually

    Dynamic Interactions Between Goals and Beliefs

    No full text
    Shapiro et al. [2005; 2006], presented a framework for representing goal change in the situation calculus. In that framework, agents adopt a goal when requested to do so (by some agent reqr), and they remain committed to the goal unless the request is cancelled by reqr. A common assumption in the agent theory literature, e.g., [Cohen and Levesque, 1990; Rao and Georgeff, 1991], is that achievement goals that are believed to be impossible to achieve should be dropped. In this paper, we incorporate this assumption into Shapiro et al.’s framework, however we go a step further. If an agent believes a goal is impossible to achieve, it is dropped. However, if the agent later believes that it was mistaken about the impossibility of achieving the goal, the agent might readopt the goal. In addition, we consider an agent’s goals as a whole when making them compatible with their beliefs, rather than considering them individually.

    Dynamic Interactions Between Goals and Beliefs

    No full text
    Shapiro et al. [2005; 2006], presented a framework for representing goal change in the situation calculus. In that framework, agents adopt a goal when requested to do so (by some agent reqr), and they remain committed to the goal unless the request is cancelled by reqr. A common assumption in the agent theory literature, e.g., [Cohen and Levesque, 1990; Rao and Georgeff, 1991], is that achievement goals that are believed to be impossible to achieve should be dropped. In this paper, we incorporate this assumption into Shapiro et al.’s framework, however we go a step further. If an agent believes a goal is impossible to achieve, it is dropped. However, if the agent later believes that it was mistaken about the impossibility of achieving the goal, the agent might readopt the goal. In addition, we consider an agent’s goals as a whole when making them compatible with their beliefs, rather than considering them individually.
    corecore