1 research outputs found

    Estimaci贸 del moviment de robots mitjan莽ant contorns actius

    Get PDF
    Aquesta tesi versa sobre l'estimaci贸 del moviment d'un robot m貌bil a partir dels canvis en les imatges captades per una c脿mera muntada sobre el robot. El moviment es dedueix amb un algorisme pr猫viament proposat en el marc de la navegaci贸 qualitativa. Per tal d'emprar aquest algorisme en casos reals s'ha fet un estudi de la seva precisi贸. Per augmentar-ne l'aplicabilitat, s'ha adaptat l'algorisme al cas d'una c脿mera amb moviments d'orientaci贸 i de zoom.Quan els efectes perspectius no s贸n importants, dues vistes d'una escena captades pel robot es poden relacionar amb una transformaci贸 af铆 (o afinitat), que normalment es calcula a partir de correspond猫ncies de punts. En aquesta tesi es vol seguir un enfoc alternatiu, i alhora complementari, fent servir la silueta d'un objecte modelada mitjan莽ant un contorn actiu. El marc es el seg眉ent: a mesura que el robot es va movent, la projecci贸 de l'objecte a la imatge va canviant i el contorn actiu es deforma convenientment per adaptar-s'hi; de les deformacions d'aquest contorn, expressades en espai de forma, se'n pot extreure el moviment del robot fins a un factor d'escala. Els contorns actius es caracteritzen per la rapidesa en la seva extracci贸 i la seva robustesa a oclusions parcials. A m茅s, un contorn 茅s f脿cil de trobar fins i tot en escenes poc texturades, on sovint 茅s dif铆cil trobar punts caracter铆stics i la seva correspond猫ncia.La primera part d'aquest treball t茅 l'objectiu de caracteritzar la precisi贸 i la incertesa en l'estimaci贸 del moviment. Per avaluar la precisi贸, primer es duen a terme un parell d'experi猫ncies pr脿ctiques, que mostren la potencialitat de l'algorisme en entorns reals i amb diferents robots. Estudiant la geometria epipolar que relaciona dues vistes d'un objecte planar es demostra que la direcci贸 epipolar af铆 es pot recuperar en el cas que el moviment de la c脿mera estigui lliure de ciclorotaci贸. Amb una bateria d'experiments, tant en simulaci贸 com reals, es fa servir la direcci贸 epipolar per caracteritzar la precisi贸 global de l'afinitat en diferents situacions, com ara, davant de diferents formes dels contorns, condicions de visualitzaci贸 extremes i soroll al sistema.Pel que fa a la incertesa, gr脿cies a que la implementaci贸 es basa en el filtre de Kalman, per a cada estimaci贸 del moviment tamb茅 es t茅 una estimaci贸 de la incertesa associada, per貌 expressada en espai de forma. Per tal propagar la incertesa de l'espai de forma a l'espai de moviment 3D s'han seguit dos camins diferents: un anal铆tic i l'altre estad铆stic. Aquest estudi ha perm猫s determinar quins graus de llibertat es recuperen amb m茅s precisi贸, i quines correlacions existeixen entre les diferents components. Finalment, s'ha desenvolupat un algorisme que permet propagar la incertesa del moviment en temps de v铆deo. Una de les limitacions m茅s importants d'aquesta metodologia 茅s que cal que la projecci贸 de l'objecte estigui dins de la imatge i en condicions de visualitzaci贸 de perspectiva d猫bil durant tota la seq眉猫ncia. En la segona part d'aquest treball, s'estudia el seguiment de contorns actius en el marc de la visi贸 activa per tal de superar aquesta limitaci贸. 脡s una relaci贸 natural, at猫s que el seguiment de contorns actius es pot veure com una t猫cnica per fixar el focus d'atenci贸. En primer lloc, s'han estudiat les propietats de les c脿meres amb zoom i s'ha proposat un nou algorisme per determinar la profunditat de la c脿mera respecte a un objecte qualsevol. L'algorisme inclou un senzill calibratge geom猫tric que no implica cap coneixement sobre els par脿metres interns de la c脿mera. Finalment, per tal d'orientar la c脿mera adequadament, compensant en la mesura del possible els moviments del robot, s'ha desenvolupat un algorisme per al control dels mecanismes de zoom, capcineig i guinyada, i s'ha adaptat l'algorisme d'estimaci贸 del moviment incorporant-hi els girs coneguts del capcineig i la guinyada.This thesis deals with the motion estimation of a mobile robot from changes in the images acquired by a camera mounted on the robot itself. The motion is deduced with an algorithm previously proposed in the framework of qualitative navigation. In order to employ this algorithm in real situations, a study of its accuracy has been performed. Moreover, relationships with the active vision paradigm have been analyzed, leading to an increase in its applicability.When perspective effects are not significant, two views of a scene are related by an affine transformation (or affinity), that it is usually computed from point correspondences. In this thesis we explore an alternative and at the same time complementary approach, using the contour of an object modeled by means of an active contour. The framework is the following: when the robot moves, the projection of the object in the image changes and the active contour adapts conveniently to it; from the deformation of this contour, expressed in shape space, the robot egomotion can be extracted up to a scale factor. Active contours are characterized by the speed of their extraction and their robustness to partial occlusions. Moreover, a contour is easy to find even in poorly textured scenes, where often it is difficult to find point features and their correspondences.The goal of the first part of this work is to characterize the accuracy and the uncertainty in the motion estimation. Some practical experiences are carried out to evaluate the accuracy, showing the potentiality of the algorithm in real environments and with different robots. We have studied also the epipolar geometry relating two views of a planar object. We prove that the affine epipolar direction between two images can be recovered from a shape vector when the camera motion is free of cyclorotation. With a battery of simulated as well as real experiments, the epipolar direction allows us to analyze the global accuracy of the affinity in a variety of situations: different contour shapes, extreme visualization conditions and presence of noise.Regarding uncertainty, since the implementation is based on a Kalman filter, for each motion estimate we have also its covariance matrix expressed in shape space. In order to propagate the uncertainty from shape space to 3D motion space, two different approaches have been followed: an analytical and a statistical one. This study has allowed us to determine which degrees of freedom are recovered with more accuracy, and what correlations exist between the different motion components. Finally, an algorithm to propagate the motion uncertainty at video rate has been proposed.One of the most important limitations of this methodology is that the object must project onto the image under weak-perspective visualization conditions all along the sequence. In the second part of this work, active contour tracking is studied within the framework of active vision to overcome this limitation. Both relate naturally, as active contour tracking can be seen as a focus-of-attention strategy.First, the properties of zooming cameras are studied and a new algorithm is proposed to estimate the depth of the camera with respect to an object. The algorithm includes a simple geometric calibration that does not require any knowledge about the camera internal parameters.Finally, in order to orientate the camera so as to suitably compensate for robot motion when possible, a new algorithm has been proposed for the control of zoom, pan and tilt mechanisms, and the motion estimation algorithm has been updated conveniently to incorporate the active camera state information
    corecore