5 research outputs found
Sistemas de navegaciĂłn en plataformas mĂłviles mediante odometrĂa visual
En este documento se presenta un modo de detectar y rastrear caracterĂsticas en
secuencias de imágenes (vĂdeos), grabadas por una cámara monocular mĂłvil (localizada
en una plataforma mĂłvil). El objetivo Ăşltimo de estas detecciones es el de estimar la
trayectoria recorrida por la cámara. También se presentan los cálculos matemáticos
detrás de esta estimación.
Se desarrollĂł un programa principal como parte del proyecto, capaz de rastrear puntos
a lo largo de las secuencias, registrando sus trayectorias. Este programa realizado no
estima la trayectoria de la cámara.
También se mencionan varios métodos, usados por distintos autores, de interés para
la odometrĂa.This document introduces a way to detect and track features in image sequences
(videos), recorded by a mobile monocular camera (placed on a mobile platform). The
nal scope of those detections is to estimate the trajectory of the camera. The
mathematical calculations behind cameras' trajectory estimation are also presented.
One main program was created as part of this project, able to track some points
throughout the sequences, registering their trajectories. This developed program does
not estimate the camera's trajectory.
Several methods, used by di erent authors, of special interest for the odometry are
also mentioned.Grado en Sistemas de TelecomunicaciĂł
Novo método iterativo de localização da câmera baseado no conceito de resection-intersection
A Odometria Visual Ă© o processo de estimar o movimento de um ente a partir de duas ou mais imagens fornecidas por uma ou mais câmeras. É uma tĂ©cnica de grande importância na visĂŁo computacional, com aplicações em diversas áreas tais como assistĂŞncia ao motorista e navegação de veĂculos autĂ´nomos, sistemas de realidade aumentada, veĂculos autĂ´nomos nĂŁo-tripulados (VANTs) e atĂ© mesmo na exploração interplanetária. Os mĂ©- todos mais comuns de Odometria Visual utilizam câmeras com visĂŁo estĂ©reo, atravĂ©s das quais Ă© possĂvel calcular diretamente as informações de profundidade de detalhes de uma cena, o que permite estimar as posições sucessivas das câmeras. A Odometria Visual Monocular estima o deslocamento de um objeto com base nas imagens fornecidas por uma Ăşnica câmera, o que oferece vantagens construtivas e operacionais embora exija processamento mais complexo. Os sistemas de Odometria Visual Monocular do tipo esparsos estimam a pose da câmera a partir de singularidades detectadas nas imagens, o que reduz significativamente o poder de processamento necessário, sendo assim ideal para aplica- ções de tempo real. Nessa Ăłptica, este trabalho apresenta um novo sistema de Odometria Visual Monocular esparsa para tempo real, validado em veĂculo instrumentado. O novo sistema Ă© baseado no conceito de Resection-Intersection, combinado com um novo teste de convergĂŞncia, e um mĂ©todo de refinamento iterativo para minimizar os erros de reproje- ção. O sistema foi projetado para ser capaz de utilizar diferentes algoritmos de otimização nĂŁo linear, tais como Gauss-Newton, Levenberg-Marquardt, Davidon-Fletcher-Powell ou Broyden–Fletcher–Goldfarb–Shannon. Utilizando o benchmark KITTI, o sistema proposto obteve um erro de translação em relação Ă distância mĂ©dia percorrida de 0, 86% e erro mĂ©dio de rotação em relação Ă distância mĂ©dia percorrida de 0.0024â—¦/m. O sistema foi desenvolvido em Python em uma Ăşnica thread, foi embarcado em uma placa Raspberry Pi 4B e obteve um tempo mĂ©dio de processamento de 775ms por imagem para os onze primeiros cenários do benchmark. O desempenho obtido neste trabalho supera os resultados de outros sistemas de Odometria Visual Monocular baseados no conceito de ResectionIntersection atĂ© o momento submetidos na classificação do benchmark KITTI.Visual Odometry is the process of estimating the movement of an entity from two or more images provided by one or more cameras. It is a technique ofmain concern in computer vision, with applications in several areas such as driver assistance and autonomous vehicle navigation, augmented reality systems, Unmanned Aerial Vehicle (UAV) and even in interplanetary exploration. Most common methods of Visual Odometry use stereo cameras, through which it is possible to directly calculate the depth information of details of a scene, which allows to estimate the successive positions of the cameras. Monocular Visual Odometry estimates the displacement of an object based on images provided by a single camera, which offers constructive and operational advantages although it requires more complex processing. Sparse-type Monocular Visual Odometry systems estimate the camera pose from singularities detected in the images, which significantly reduces the processing power required, thus making it ideal for real-time applications. In this perspective, this work presents a new Sparse Monocular visual Odometry system for real-time, validated on a instrumented vehicle. The new system is based on the Resection-Intersection concept, combined with an expanded convergence test, and an iterative refinement method to minimize reprojection errors. It was designed to be able to use different non-linear optimization algorithms, such as Gauss-Newton, Levenberg-Marquardt, Davidon-FletcherPowell or Broyden–Fletcher–Goldfarb–Shannon. Using the benchmark KITTI, the proposed system obtained a translation error in relation to the average distance traveled of 0.86% and an average rotation error in relation to the average distance covered of 0.0024â—¦/m. The system was developed in Python on a single thread, was embedded on a Raspberry Pi 4B board and an average processing time of 775ms per image for the first eleven scenarios of the benchmark. The results obtained in this work surpass the results obtained by other visual odometry systems based on the concept of Resection-Intersection so far submitted to the KITTI benchmark ranking