14 research outputs found

    Dowe really need an accurate calibration pattern?

    Get PDF
    The metrology of calibration patterns is often a real problem in computer vision to obtain a reliable estimation of the intrinsic and extrinsic parameters that model a video camera device . In order to take into account these errors a self-calibration method is described, that enables us to compute in the same time the traditional calibration parameters and the 3D geometry of the calibration pattern using a multi-images calibration algorithm . Experimental results shows that the proposed algorithm leads to reliable calibration results and proves that calibration errors no longer depend on the accuracy of calibration point measurement, but on the accuracy of calibration point detection in the image plane .Cet article soulève le problème de l'influence des erreurs introduites par la métrologie d'une mire d'étalonnage sur la détermination des paramètres intrinsèques d'un capteur vidéo. Afin de s'affranchir de ces erreurs, une approche d'autocalibrage est décrite permettant conjointement d'estimer les paramètres internes du capteur vidéo et la géométrie de la mire, au sein d'un formalisme d'étalonnage multi-images. Par la problématique qu'il soulève, cet article cotoie les approches de Shape from Motion et d'Auto-calibrage des capteurs, en gardant cependant la spécificité d'être décrit selon un formalisme photogrammétrique et donc d'intégrer implicitement les aberrations géométriques des objectifs. Nous nous sommes attachés à insister sur l'aspect descriptif de la méthode pour permettre aux lecteurs une vision globale de la mise en oeuvre du procédé

    Localization with monocular vision for autonomous navigation

    Get PDF
    We present a method for computing the localization of a mobile robot with reference to a learning video sequence. The robot is first guided on a path by a human, while the camera records a monocular learning sequence. Then a 3D reconstruction of the path and the environment is computed off line from the learning sequence. The 3D reconstruction is then used for computing the pose of the robot in real time in autonomous navigation. Results from our method are compared to the ground truth measured with a differential GPS or a rotating platform.Nous présentons une méthode pour déterminer la localisation d'un robot mobile par rapport à une séquence vidéo d'apprentissage. Dans un premier temps, le robot est conduit manuellement sur une trajectoire et une séquence vidéo de référence est enregistrée par une seule caméra. Puis un calcul hors ligne nous donne une reconstruction 3D du chemin suivi et de l'environnement. Cette reconstruction est ensuite utilisée pour calculer la pose du robot en temps réel dans une phase de navigation autonome. Les résultats obtenus sont comparés à la vérité terrain mesurée par un GPS différentiel ou une plate-forme rotative graduée

    Using a zoom lens in monocular vision for 3D reconstruction

    Get PDF
    Using a zoom Zens in monocular vision seems to be an interesting idea. The principal aim of this article is to prove that it is possible to infer 3D information from a set of images tak'en with a zoom lens . In the first part of this article, a precise study of the optical properties of such a lens gives the two following major results - The intersection between the optical axis and the image plane can be independently and accurately determined, - the pin-hole model can be used for the zoom lens only if the object-toimage distance is not considered as fixed .Then, ta explain the optical phenomena occurring during a focal length change, we show that a thick optical model must be considered. Finally, experimental results of reconstruction, from a set of real images, are given .L'utilisation d'un zoom en vision monoculaire, en vue de la reconstruction tridimensionnelle d'un univers observé, nous paraît une idée intéressante. En effet les propriétés optiques d'un objectif à focale variable permettent de déterminer, facilement et avec précision, les coordonnées de l'intersection de l'axe optique et du plan image, mais également de concevoir une reconstruction par triangulation. Dans cet article, nous montrons que l'approximation de cet objectif par le modèle sténopé nécessite de ne plus considérer la distance entre l'objet et le plan image comme un paramètre fixe. Afin d'appréhender plus globalement les phénomènes optiques mis en jeu par la variation de distance focale, il est alors nécessaire de recourir au modèle optique épai

    Deformable model to recover circular generalized cylinders

    Get PDF
    This paper describes a new approach to recover Circular Generalized Cylinders (CGC) using deformable models . This class includes many objects present on industrial site (pipes) or on the natural environment (human leg, tree trunk) . First, we propose a modeling algorithm of objects with constant cross-section radius, called Uniform Circular Generalized Cylinder s (UCGC). With this assumption, reconstruction is possible from a single view of the object. In the case of a single image, the cross - section radius cannot be estimated . If this radius is unknown, reconstruction is achieved up to a scale factor. The model 3D axis i s parametrized by a B-spline curve . After a coarse initialization, the model changes shape to fit the object contour detected in the studied image. Using different views of the object, the previous approach is adapted to Circular Generalized Cylinders (cross-section radiu s variations are now permitted) . No assumption is made on the axis geometry nor on the way the radius varies . In order to be sufficiently adaptative to the large range of object shape belonging to this class, we propose using two independent B-splin e functions to model respectively axis and cross-section radii variations . These algorithms use the geometrical properties of the occluding contours given by the perspective projection of the objects. It i s the first attempt to solve this problem by taking into account this accurate projective model .Dans cet article, nous proposons une méthode de reconstruction des cylindres généralisés à section circulaire par modèle déformable. Tout d'abord, nous formulons l'hypothèse que les sections de l'objet sont de rayon constant. Nous parlons alors de Cylindres Généralisés Circulaires Uniformes (CGCU). Si le rayon est connu a priori, cette hypothèse permet de retrouver l'axe 3D de l'objet, paramétré par une fonction B-Spline, à partir d'une seule vue, sinon la reconstruction est faite à un facteur d'échelle près. Après une initilisation grossière, le modèle est déformé itérativement jusqu'à ce que sa forme devienne cohérente avec les contours extraits de l'image. Nous montrerons ensuite que l'exploitation de différentes vues d'un même objet permet d'adapter notre approche à la reconstruction de Cylindres Généralisés Circulaires (CGC), objets constitués de sections circulaires à rayon non-constant. Aucune hypothèse a priori n'est faite sur la géométrie de l'axe ou sur la façon dont varie le rayon des sections. Afin de pouvoir s'adapter au plus grand nombre d'objets appartenant à cette classe, deux fonctions B-Spline indépendantes sont utilisées pour paramétrer l'axe et la fonction de variation du rayon

    Implicit reconstruction by zooming

    Get PDF
    This paper presents a new method to infer 3D information using a static camera equipped with a zoom-lens. The modelling algorithm does not required any explicit calibration model and the computations involved are straightforward. This approach uses several images of accurate regular grids placed on a micrometric table, as calibration process . The basic idea is to compute a local transformation that allows to establish a relationship between a distorted grid detected on the CCD matrix and the real one located in front of the camera . This relationship takes automatically into account all distortion phenomena and allows to obtain reconstruction results much more accurate than previous works in the same field . A complete experiment on real data is provided and shows that it is possible to compute 3D information from a zooming image set even if data are close to the optical axis .Cet article présente une nouvelle méthode permettant d'inférer des informations tridimensionnelles à l'aide d'une caméra statique munie d'un zoom. L'algorithme de modélisation ne nécessite aucun modèle explicite de calibrage et met en oeuvre plusieurs images de grilles régulières et précises formant un espace métrique particulier. Une transformation locale permet d'établir une relation entre l'image distordue d'une grille détectée sur la matrice CCD et une grille réelle située devant la caméra. Cette relation prend automatiquement en compte les phénomènes de distorsion optique et permet d'obtenir des résultats de reconstruction bien meilleurs que ceux obtenus jusqu'à présent en reconstruction axiale par zoom. De plus, la méthode présentée permet de calibrer l'objectif sur une gamme importante de distances focales sans changer d'objet de calibrage. Une expérimentation complète sur des données réelles est présentée et montre qu'il est possible de reconstruire des objets 3D à partir d'une séquence d'images de zoom même si ces données sont proches de l'axe optique

    Some aspects of zoom lens camera calibration

    No full text

    Improved Camera Calibration Method Based on a Two-Dimensional Template

    No full text

    Motion Estimation via a Zoom Camera

    No full text

    Simultaneous Object Pose and Velocity Computation Using a Single View from a Rolling Shutter Camera

    No full text
    An original concept for computing instantaneous 3D pose and 3D velocity of fast moving objects using a single view is proposed, implemented and validated. It takes advantage of the image deformations induced by rolling shutter in CMOS image sensors. First of all, after analysing the rolling shutter phenomenon, we introduce an original model of the image formation when using such a camera, based on a general model of moving rigid sets of 3D points. Using 2D-3D point correspondences, we derive two complementary methods, compensating for the rolling shutter deformations to deliver an accurate 3D pose and exploiting them to also estimate the full 3D velocity. The first solution is a general one based on non-linear optimization and bundle adjustment, usable for any object, while the second one is a closed-form linear solution valid for planar objects. The resulting algorithms enable us to transform a CMOS low cost and low power camera into an innovative and powerful velocity sensor. Finally, experimental results with real data confirm the relevance and accuracy of the approac
    corecore