7 research outputs found

    Verso una naturalizzazione della «consapevolezza agentiva »: problemi teorici e possibile modello robotico

    Full text link
    Quali fattori sono rilevanti per la costituzione di un agente? Che cosa conferisce all’agente quell’unità di azione, intenzione ed esperienza che caratterizza l’agente umano – inevitabilmente preso a modello di riferimento? Più semplicemente, che cosa è un agente? Come si passa da un insieme di strutture materiali, con determinate proprietà fisiche, a un insieme articolato di parti che cooperano tra di loro e che ha senso chiamare «agente» nello stesso senso del termine utilizzato per riferirsi a un agente umano? Si tratta di domande che attraversano ortogonalmente una serie di discipline che – a volte forzatamente – hanno dovuto affrontare il problema della natura della mente. Infatti, in molti casi, un’agente è un sistema dotato di unità e capace di sensazione, azione e intenzione. Tali termini sono qui usati secondo un’accezione neutra. Anche un robot potrebbe essere avere queste caratteristiche, anzi, allo stato attuale non c’è motivo di escludere questa possibilità (Buttazzo e Manzotti 2008; Koch e Tononi 2008; O’Regan 2012). Oggi, una via promettente – filo rosso di questo numero speciale – è costituita dall’analisi dell’«autoconsapevolezza agentiva» perché è una prospettiva che consente di considerare aspetti teorici ed empirici (Bayne e Pacherie 2007; Ellis e Newton 2005; Gallagher e Jeannerod 2002; Haggard e Cole 2007; Synofzik, Vosgerau e Newen 2008). È una linea di ricerca parallela ma congiunta rispetto alla tradizionale ricerca di modelli biologici per la mente cosciente che spesso si concentra soprat- tutto sull’ambito percettivo (Baars e Ave 1997; Manzotti 2006; Tononi 2004; Zeki 2001). Nell’indagine sull’autoconsapevolezza agentiva, la centralità dell’azione permette di passare in secondo piano il tradizionale hard problem legato alla qualità dell’esperienza fenomenica (Chalmers 1996). Come accenneremo nella prima parte di questo articolo, però, tale approccio non è esente da debolezze concettuali e teoriche. In questo articolo, diviso in tre parti, affronteremo inizialmente quelle che, a nostro avviso, sono le principali difficoltà di carattere concettuale che ancora non hanno trovato un’adeguata trattazione, poi procederemo a delineare l’orizzonte di un possibile quadro di riferimento teorico a cavallo di robotica bioinspirata e filosofia della mente, infine daremo una breve descrizione di un’architettura robotica che implementa i principi descritti

    From learning to new goal generation in a bioinspired robotic setup

    Full text link
    In the field of cognitive bioinspired robotics, we focus on autonomous development, and propose a possible model to explain how humans generate and pursue new goals that are not strictly dictated by survival. Autonomous lifelong learning is an important ability for robots to make them able to acquire new skills, and autonomous goal generation is a basic mechanism for that. The Intentional Distributed Robotic Architecture (IDRA) here presented intends to allow the autonomous development of new goals in situated agents starting from some simple hard-coded instincts. It addresses this capability through an imitation of the neural plasticity, the property of the cerebral cortex supporting learning. Three main brain areas are involved in goal generation, cerebral cortex, thalamus, and amygdala; these are mimicked at a functional level by the modules of our computational model, namely Deliberative, Working-Memory, Goal-Generator, and Instincts Modules, all connected in a network. IDRA has been designed to be robot independent; we have used it in simulation and on the real Aldebaran NAO humanoid robot. The reported experiments explore how basic capabilities, as active sensing, are obtained by the architecture

    Learning and evaluation of a vergence control system inspired by Hering's law

    Full text link
    We develop a bio-inspired controller for an active stereo vision system based on the Hering's law. We extend a model already proposed in literature in two ways. Firstly we evaluate the performance of the controller, inspecting its capability to foveate a generic feature in the 3D space, and the robustness respect to the initial angular configuration of the stereo system. Secondly we introduce the redundant component of the neck. Using a classical learning method we tune the controller to adapt to the controlled system. We investigate how the redundancy is solved by the learned controller, and show that the performance increases and the controlled stereo system generates human-like trajectories
    corecore