3 research outputs found

    Conjugate epipole-based self-calibration of camera under circular motion

    Get PDF
    In this paper, we propose a new method to self-calibrate camera with constant internal parameters under circular motion. The basis of our approach is to make use of the conjugate epipoles which are related to camera positions with rotation angles satisfying the conjugate constraint. A novel circular projective reconstruction is developed for computing the conjugate epipoles robustly. It is shown that for a camera with zero skew, two turntable sequences with different camera orientations are needed, and for a general camera three sequences with different camera orientations are required. The performance of the algorithm is tested with real images.published_or_final_versio

    A Factorization-based method for Projective Reconstruction with minimization of 2-D reprojection errors

    No full text
    In this paper, we consider the problem of projective reconstruction based on the factorization method. Unlike existing factorization based methods which minimize the SVD reprojection error, we propose to estimate the projective depths by minimizing the 2-D reprojection errors. An iterative algorithm is developed to minimize 2-D reprojection errors. This algorithm reconstructs the projective depths robustly and does not rely on any geometric knowledge, such as epipolar geometry

    Real Time Sequential Non Rigid Structure from motion using a single camera

    Get PDF
    En la actualidad las aplicaciones que basan su funcionamiento en una correcta localizaci贸n y reconstrucci贸n dentro de un entorno real en 3D han experimentado un gran inter茅s en los 煤ltimos a帽os, tanto por la comunidad investigadora como por la industrial. Estas aplicaciones var铆an desde la realidad aumentada, la rob贸tica, la simulaci贸n, los videojuegos, etc. Dependiendo de la aplicaci贸n y del nivel de detalle de la reconstrucci贸n, se emplean diversos dispositivos, algunos espec铆ficos, m谩s complejos y caros como las c谩maras est茅reo, c谩mara y profundidad (RGBD) con Luz estructurada y Time of Flight (ToF), as铆 como l谩ser y otros m谩s avanzados. Para aplicaciones sencillas es suficiente con dispositivos de uso com煤n, como los smartphones, en los que aplicando t茅cnicas de visi贸n artificial, se pueden obtener modelos 3D del entorno para, en el caso de la realidad aumentada, mostrar informaci贸n aumentada en la ubicaci贸n seleccionada.En rob贸tica, la localizaci贸n y generaci贸n simult谩neas de un mapa del entorno en 3D es una tarea fundamental para conseguir la navegaci贸n aut贸noma. Este problema se conoce en el estado del arte como Simultaneous Localization And Mapping (SLAM) o Structure from Motion (SfM). Para la aplicaci贸n de estas t茅cnicas, el objeto no ha de cambiar su forma a lo largo del tiempo. La reconstrucci贸n es un铆voca salvo factor de escala en captura monocular sin referencia. Si la condici贸n de rigidez no se cumple, es porque la forma del objeto cambia a lo largo del tiempo. El problema ser铆a equivalente a realizar una reconstrucci贸n por fotograma, lo cual no se puede hacer de manera directa, puesto que diferentes formas, combinadas con diferentes poses de c谩mara pueden dar proyecciones similares. Es por esto que el campo de la reconstrucci贸n de objetos deformables es todav铆a un 谩rea en desarrollo. Los m茅todos de SfM se han adaptado aplicando modelos f铆sicos, restricciones temporales, espaciales, geom茅tricas o de otros tipos para reducir la ambig眉edad en las soluciones, naciendo as铆 las t茅cnicas conocidas como Non-Rigid SfM (NRSfM).En esta tesis se propone partir de una t茅cnica de reconstrucci贸n r铆gida bien conocida en el estado del arte como es PTAM (Parallel Tracking and Mapping) y adaptarla para incluir t茅cnicas de NRSfM, basadas en modelo de bases lineales para estimar las deformaciones del objeto modelado din谩micamente y aplicar restricciones temporales y espaciales para mejorar las reconstrucciones, adem谩s de ir adapt谩ndose a cambios de deformaci贸n que se presenten en la secuencia. Para ello, hay que realizar cambios de manera que cada uno de sus hilos de ejecuci贸n procesen datos no r铆gidos.El hilo encargado del seguimiento ya realizaba seguimiento basado en un mapa de puntos 3D, proporcionado a priori. La modificaci贸n m谩s importante aqu铆 es la integraci贸n de un modelo de deformaci贸n lineal para que se realice el c谩lculo de la deformaci贸n del objeto en tiempo real, asumiendo fijas las formas b谩sicas de deformaci贸n. El c谩lculo de la pose de la c谩mara est谩 basado en el sistema de estimaci贸n r铆gido, por lo que la estimaci贸n de pose y coeficientes de deformaci贸n se hace de manera alternada usando el algoritmo E-M (Expectation-Maximization). Tambi茅n, se imponen restricciones temporales y de forma para restringir las ambig眉edades inherentes en las soluciones y mejorar la calidad de la estimaci贸n 3D.Respecto al hilo que gestiona el mapa, se actualiza en funci贸n del tiempo para que sea capaz de mejorar las bases de deformaci贸n cuando 茅stas no son capaces de explicar las formas que se ven en las im谩genes actuales. Para ello, se sustituye la optimizaci贸n de modelo r铆gido incluida en este hilo por un m茅todo de procesamiento exhaustivo NRSfM, para mejorar las bases acorde a las im谩genes con gran error de reconstrucci贸n desde el hilo de seguimiento. Con esto, el modelo se consigue adaptar a nuevas deformaciones, permitiendo al sistema evolucionar y ser estable a largo plazo.A diferencia de una gran parte de los m茅todos de la literatura, el sistema propuesto aborda el problema de la proyecci贸n perspectiva de forma nativa, minimizando los problemas de ambig眉edad y de distancia al objeto existente en la proyecci贸n ortogr谩fica. El sistema propuesto maneja centenares de puntos y est谩 preparado para cumplir con restricciones de tiempo real para su aplicaci贸n en sistemas con recursos hardware limitados
    corecore