3 research outputs found

    Aprendizagem automática de comportamentos para futebol robótico

    Get PDF
    Mestrado em Engenharia de Computadores e TelemáticaNo desenvolvimento de um agente inteligente e necess ario criar um conjunto de comportamentos, mais ou menos complexos, para que o agente possa escolher o que achar mais adequado para utilizar a cada instante. Comportamentos simples podem ser facilmente programados \ a m~ao", mas, a medida que se tentam criar comportamentos mais complexos esta tarefa pode tornar-se invi avel. Isto pode acontecer, por exemplo, em casos onde o espa co de estados, o espa co de a c~oes e/ou o tempo tomam valores cont nuos. E esse o caso no futebol rob otico, onde os rob^os se movem num espa co cont nuo, com velocidades e em tempo cont nuos. A aprendizagem por refor co permite que seja o agente a aprender um comportamento atrav es da sua experi^encia ao interagir com o mundo. Esta t ecnica baseia-se num mecanismo que ocorre na natureza, uma vez que imita a forma como os animais aprendem, mais concretamente, observando o estado do mundo, tomando uma a c~ao e observando as consequ^encias dessa a c~ao. A longo prazo, e com base nas consequ^encias das a c~oes tomadas, o animal aprende se, nessas circunst^ancias, a sequ^encia de a c~oes que o levaram a esse ponto e boa e pode ser repetida ou n~ao. Para que o agente aprenda da mesma forma, e preciso que consiga percecionar o valor que as suas a c~oes t^em a longo prazo. Para isso, e-lhe dada uma recompensa ou um castigo quando faz uma a c~ao desejada ou indesejada, respetivamente. Comportamentos aprendidos podem ser usados em situa c~oes em que e invi avel escrev^e-los a m~ao, ou para criar comportamentos com melhor desempenho uma vez que o agente consegue derivar fun c~oes complexas que descrevam melhor a solu c~ao do problema. No contexto desta tese foram desenvolvidos 3 comportamentos no contexto da equipa de futebol rob otico CAMBADA da Univeridade de Aveiro. O primeiro comportamento, o mais simples, consistiu em fazer o rob^o rodar sobre si pr oprio at e estar virado para uma dada orienta c~ao absoluta. O segundo permitia que o rob^o, com a bola na sua posse, a driblasse numa dire c~ao desejada. Por m, o terceiro comportamento permitiu que o rob^o aprendesse a ajustar a sua posi c~ao para receber uma bola que pode vir com mais ou menos velocidade e descentrada em rela c~ao ao receptor. Os resultados das compara c~oes feitas com os comportamentos desenvolvidos a m~ao que j a existiam na CAMBADA, mostram que comportamentos aprendidos conseguem ser mais e cientes e obter melhores resultados do que os explicitamente programados.While developing an intelligent agent, one needs to create a set of behaviors, more or less complex, to allow the agent to choose the one it believes to be appropriate at each instant. Simple behaviors can easily be developed by hand, but, as we try to create more complex ones, this becomes impracticable. This complexity may arise, for example, when the state space, the action space and/or the time take continuous values. This is the case of robotic soccer where the robots move in a continuous space, at continuous velocities and in continuous time. Reinforcement learning enables the agent to learn behaviors by itself by experiencing and interacting with the world. This technique is based on a mechanism which happens in nature, since it mimics the way animals learn, more precisely, observing the world state, taking an action and then observe the consequences of that action. In the long run, and based on the consequences of the actions taken, the animal learned if, in those circumstances, the sequence of actions which led it to that state is good and may be repeated or not. To make the agent learn in this way, it must understand the value of its actions in the long run. In order to do that, it is given a reward or a punishment for doing a desired or undesired action, respectively. Learned behaviors can be used in cases where they are too complex to be written by hand, or to create behaviors that can perform better than the hand-coded ones, since the agent can derive complex functions that better describe a solution for the given problem. During this thesis, 3 behaviors were developed in the context of the robotic soccer CAMBADA team from University of Aveiro. The rst behavior, the most simple, made the robot rotate about itself until it had turned to a given absolute orientation. The second one, allowed a robot that possessed the ball to dribble it in a desired direction. Lastly, the third behavior allowed the robot to learn to adjust its position to receive a ball. The ball can come at a high or low speed and may not be centered in relation to the receiver. The results of comparing the learned behaviors to the already existing handcoded ones showed that the learned behaviors were more e cient and obtained better results
    corecore