119 research outputs found
Knowledge dynamics in a khepera robots’ application
The theory change area have defined several operators trying to model the dynamic of knowledge. The goal of this work is to introduce a preprocessor of perceptions that could be part of an agent. The purpose of the preprocessor is to select an adequate change operator to store the perceptions that the agent perceives from the environment where their activities are performed. An agent receives perceptions, and classifies them according to how they were obtained by him/her. Once are the perceptions classified, the preprocessor selects one of the change operators to store the new information in the belief base. Then the preprocessor of perceptions sends the selected method and the perceptions to a change machine in the agent. When the change machine receives the mentioned inputs, it interacts with the belief base of the agent to store the new information.VIII Workshop de Agentes y Sistemas InteligentesRed de Universidades con Carreras en Informática (RedUNCI
An comparative analysis of different models of belief revision using information from multiple sources
In this work we analyze the problem of knowledge representation in a collaborative multi-agent system where agents can obtain new information from others through communication. Namely, we analyze several approaches of belief revision in multi-agent systems. We will describe different research lines in this topic and we will focus on Belief Revision using Information from Multiple Sources. For this, we are going to accomplish a comparative analysis of different models of belief revision that use information from multiple sources.Workshop de Agentes y Sistemas Inteligentes (WASI)Red de Universidades con Carreras en Informática (RedUNCI
Arguing about informant credibility in open multi-agent systems
This paper proposes the use of an argumentation framework with recursive attacks to address a trust model in a collaborative open multi-agent system. Our approach is focused on scenarios where agents share information about the credibility (informational trust) they have assigned to their peers. We will represent informants' credibility through credibility objects which will include not only trust information but also the informant source. This leads to a recursive setting where the reliability of certain credibility information depends on the credibility of other pieces of information that should be subject to the same analysis. Credibility objects are maintained in a credibility base which can have information in conflict. In this scenario, we will formally show that our proposal will produce a partially ordered credibility relation; such relation contains the information that can be justified by an argumentation process.Fil: Gottifredi, Sebastián. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; ArgentinaFil: Tamargo, Luciano Héctor. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; ArgentinaFil: GarcÃa, Alejandro Javier. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; ArgentinaFil: Simari, Guillermo Ricardo. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; Argentin
An informant-based approach to argument strength in Defeasible Logic Programming
This work formalizes an informant-based structured argumentation approach in a multi-agent setting, where the knowledge base of an agent may include information provided by other agents, and each piece of knowledge comes attached with its informant. In that way, arguments are associated with the set of informants corresponding to the information they are built upon. Our approach proposes an informant-based notion of argument strength, where the strength of an argument is determined by the credibility of its informant agents. Moreover, we consider that the strength of an argument is not absolute, but it is relative to the resolution of the conflicts the argument is involved in. In other words, the strength of an argument may vary from one context to another, as it will be determined by comparison to its attacking arguments (respectively, the arguments it attacks). Finally, we equip agents with the means to express reasons for or against the consideration of any piece of information provided by a given informant agent. Consequently, we allow agents to argue about the arguments’ strength through the construction of arguments that challenge (respectively, defeat) or are in favour of their informant agents.Fil: Cohen, Andrea. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; ArgentinaFil: Gottifredi, Sebastián. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; ArgentinaFil: Tamargo, Luciano Héctor. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; ArgentinaFil: GarcÃa, Alejandro Javier. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; ArgentinaFil: Simari, Guillermo Ricardo. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; Argentin
Deliberative DeLP agents with multiple informants
In this paper we define a trust-based argumentative reasoning formalism where the source of the received information is used to decide the warranted conclusions. In the proposed formalism, the agent’s tentative conclusions are supported by arguments, and these conclusions can in turn be attacked by other arguments, referred to as counter-arguments. The inference mechanism compares arguments and counter-arguments to decide which conclusion prevails. We propose a novel development of different argument comparison criteria based on trust. Thus, given a particular application domain, the more appropriate criterion can be used. Finally, since a realistic scenario should consider that trust on informants is usually subject to change, a complete change theory over the agents’ trust is introduced.Fil: Tamargo, Luciano Héctor. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; ArgentinaFil: Gottifredi, Sebastián. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; ArgentinaFil: GarcÃa, Alejandro Javier. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; ArgentinaFil: Falappa, Marcelo Alejandro. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; ArgentinaFil: Simari, Guillermo Ricardo. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico Conicet - BahÃa Blanca. Instituto de Ciencias e IngenierÃa de la Computación. Universidad Nacional del Sur. Departamento de Ciencias e IngenierÃa de la Computación. Instituto de Ciencias e IngenierÃa de la Computación; Argentin
Confianza y reputación de agentes en sistemas multiagente para entornos dinámicos
Esta lÃnea de investigación se enfoca en el área de confianza y reputación de agentes en sistemas multi-agente. Su objetivo general es el análisis, desarrollo y formalización de la dinámica de la confianza y reputación de los agentes, a partir de la interacción con sus pares en el marco de un sistema multi-agente (SMA). Esto involucra el desarrollo y formalización de técnicas de representación y actualización del grado de confianza y de reputación de un agente, y también, la integración de estas técnicas con mecanismos de razonamiento automático y dinámica de creencias. En particular, se espera avanzar en el estudio y desarrollo de formalismos para aplicaciones de naturaleza dinámica y distribuida, que combinen mecanismos de confianza, dinámica de creencias y argumentación.Eje: Agentes y Sistemas Inteligentes.Red de Universidades con Carreras en Informática (RedUNCI
Confianza y reputación de agentes en sistemas multiagente para entornos dinámicos
Esta lÃnea de investigación se enfoca en el área de confianza y reputación de agentes en sistemas multi-agente. Su objetivo general es el análisis, desarrollo y formalización de la dinámica de la confianza y reputación de los agentes, a partir de la interacción con sus pares en el marco de un sistema multi-agente (SMA). Esto involucra el desarrollo y formalización de técnicas de representación y actualización del grado de confianza y de reputación de un agente, y también, la integración de estas técnicas con mecanismos de razonamiento automático y dinámica de creencias. En particular, se espera avanzar en el estudio y desarrollo de formalismos para aplicaciones de naturaleza dinámica y distribuida, que combinen mecanismos de confianza, dinámica de creencias y argumentación.Eje: Agentes y Sistemas Inteligentes.Red de Universidades con Carreras en Informática (RedUNCI
Reformulación del modelo Linda para compartir conocimiento en sistemas multi-agente
The aim of this work is to analyze the knowledge interchange on multi-agent systems using shared knowledge areas. The project involves the analysis and reformulation of some aspects of the Linda model, adding new model level features. This work proposes the idea of distributed tuples spaces, offering the possibility of coexistence among different tuples spaces with distinct features, being stored in remote sites. This distributed model requires the definition of new operations whose domain and range are tuples spaces, and the formulation of access constraints for the agentsRed de Universidades con Carreras en Informática (RedUNCI
Bases de conocimiento en sistemas multi-agente
Esta lÃnea de investigación tiene como objetivo analizar los distintos operadores de mezcla de múltiples fuentes de información desde diferentes teorÃas. El proyecto involucra el análisis de los operadores de mezcla de la teorÃa de Revisión de Creencias, Argumentación y desde las Lógicas proposicional y posibilÃstica. En este trabajo, en primer lugar se describen algunos operadores de mezcla desde las teorÃas ya mencionadas. En base a estas alternativas se propondrá relacionar estos operadores entre sÃ, y se propondrá redefinir sus conceptos orientando los comportamientos de los mismos a los sistemas multi-agente.Eje: Agentes y Sistemas InteligentesRed de Universidades con Carreras en Informática (RedUNCI
Manipulación de conocimiento en sistemas multi-agentes por medio de espacios de tuplas
Esta lÃnea de investigación tiene como objetivo analizar el intercambio de conocimiento en sistemas multi-agente utilizando áreas de conocimiento compartidas. El proyecto involucra la extensión del modelo Linda con el objetivo de lograr adaptarlo a un entorno distribuido en un sistemas multi-agente con agentes con conocimiento. En este trabajo, en primer lugar se describe el conjunto de operaciones sobre espacios de tuplas que hemos propuesto en [1]. En base a estas operaciones se propondrá una extensión y finalmente se describirá el trabajo a futuro a realizar en esta lÃnea de investigación.Eje: Agentes y Sistemas InteligentesRed de Universidades con Carreras en Informática (RedUNCI
- …