53 research outputs found

    Instrumentation de la scénarisation d'activités pédagogiques s'appuyant sur des artéfacts tactiles.

    Get PDF
    National audienceThe introduction of touch-sensitive artifacts in education and their use by teachers bring to light new issues about Technology Enhanced Learning (TEL). Indeed learning activities based on these innovative artifacts create new needs during the design and orchestration of learning scenario. Thus this article is for us a means to find an answer which is adequate both for teachers' new needs and new interactions generated by touch-sensitive artifacts. We suggest a comprehensive approach in the instrumentation of learning scenario design based on four concepts: resources, real and/or virtual objects, technologies and learning activities.L'introduction d'artéfacts tactiles dans l'éducation, et leurs utilisations par les enseignants, met en lumière de nouvelles problématiques dans les plateformes de formation. En effet, les activités pédagogiques s'appuyant sur ces artéfacts innovants déterminent de nouveaux besoins dans la phase d'instrumentation de scénarios pédagogiques et d'orchestration instrumentale. Ainsi, nous essayons d'apporter à travers cet article une réponse en adéquation avec les nouveaux besoins de l'enseignant et les nouvelles interactions induites par les artéfacts tactiles. Nous proposons une approche générique ouverte pour instrumenter la scénarisation d'activités pédagogiques qui s'appuie sur quatre concepts : des ressources, des objets réels et/ou virtuels, des technologies et des activités pédagogique

    Détection et localisation d'objets stationnaires par une paire de caméras PTZ

    Get PDF
    Session "Articles"National audienceDans ce papier, nous proposons une approche originale pour détecter et localiser des objets stationnaires sur une scène étendue en exploitant une paire de caméras PTZ. Nous proposons deux contributions principales. Tout d'abord, nous présentons une méthode de détection et de segmentation d'objets stationnaires. Celle-ci est basée sur la réidentification de descripteurs de l'avant-plan et une segmentation de ces blobs en objets à l'aide de champs de Markov. La seconde contribution concerne la mise en correspondance entre les deux PTZ des silhouettes d'objets détectées dans chaque image

    Système de vision hybride (modélisation et application au suivi haute résolution)

    No full text
    Cette thèse traite du suivi automatique de personne à travers la mise en oeuvre d'un système de vision hybride alliant un capteur ayant un grand champ de vue et une résolution faible avec un dispositif Pan-Tilt-Zoom orientable garantissant le détail de l'information. Une première partie est consacrée à la proposition d'une solution originale de calibrage lorsque les centres optiques des deux capteurs sont pratiquement confondus. Dans une seconde partie, nous abordons la mise en relation des informations extraites de chaque capteur et leur enrichissement mutuel nécessaire à la relation du suivi de personne basée sur une approche de filtrage particulaire : l'étape de prédiction du filtre est guidée par la détection issue de la caméra statique et la mesure est donnée par une modélisation d'apparence de la cible extraite de la caméra dynamique. Enfin, les premiers résultats de suivi sont présentés et analysésCLERMONT FD-BCIU Sci.et Tech. (630142101) / SudocSudocFranceF

    Some Aspects of Zoom Lens Camera Calibration

    No full text
    Zoom lens camera calibration is an important and difficult problem for two reasons at least. First, the intrinsic parameters of such a camera change over time, it is difficult to calibrate them on-line. Secondly, the pin-hole for single lens system can not be applied directly to a zoom lens system. In this paper, we address some aspects of this problem, such as determining principal point by zooming, modeling and calibration of lens distortion and focal length, as well as some practical aspects. Experimental results on calibrating cameras with computer controlled zoom, focus and aperture are presented. Keywords: camera calibration, zoom lens calibration, lens distortion, active vision. I. Introduction Zoom lenses become more and more wildly used in vision systems, e.g., for depth reconstruction, for active vision, 3D positioning, due to their flexibility [3], [1], [15], [4], [8]. In an active vision system, optical parameters, i.e., zoom, focus and aperture, are usually motor (compu..

    Paramétrisation et reconstruction des surfaces développables à partir d'images

    No full text
    Cette thèse traite de la reconstruction 3D de scènes déformables à partir d'images. Nos méthodes s'appuient sur un modèle mathématique de la scène. La reconstruction consiste à estimer les paramètres du modèle grâce aux images. Plus particulièrement, nous nous intéressons aux objets déformables pouvant être représentés par des surfaces développables ou inextensibles. Les surfaces développables sont les surfaces régulières isométriques au plan. Notre première contribution est un modèle génératif de ces surfaces. Il se distingue des modèles existants par sa généralité et par l'expression explicite de la frontière de l'objet. Notre deuxième contribution est un algorithme permettant de reconstruire notre modèle à partir de plusieurs images synchronisées. Notre troisième contribution est une méthode de reconstruction des surfaces inextensibles. Elle exploite les contraintes liant les points de la surface pour trouver la surface 3D à partir d'une seule image et d'une déformation de référenceCLERMONT FD-BCIU Sci.et Tech. (630142101) / SudocSudocFranceF

    Registration of computer Vision

    No full text

    Recherche linéaire et fusion de données par ajustement de faisceaux (application à la localisation par vision)

    No full text
    Les travaux présentés dans ce manuscrit concernent le domaine de la localisation et la reconstruction 3D par vision artificielle. Dans ce contexte, la trajectoire d une caméra et la structure3D de la scène filmée sont initialement estimées par des algorithmes linéaires puis optimisées par un algorithme non-linéaire, l ajustement de faisceaux. Cette thèse présente tout d abord une technique de recherche de l amplitude de déplacement (recherche linéaire), ou line search pour les algorithmes de minimisation itérative. La technique proposée est non itérative et peut être rapidement implantée dans un ajustement de faisceaux traditionnel. Cette technique appelée recherche linéaire algébrique globale (G-ALS), ainsi que sa variante à deux dimensions (Two way-ALS), accélèrent la convergence de l algorithme d ajustement de faisceaux. L approximation de l erreur de reprojection par une distance algébrique rend possible le calcul analytique d une amplitude de déplacement efficace (ou de deux pour la variante Two way-ALS), par la résolution d un polynôme de degré 3 (G-ALS) ou 5 (Two way-ALS). Nos expérimentations sur des données simulées et réelles montrent que cette amplitude, optimale en distance algébrique, est performante en distance euclidienne, et permet de réduire le temps de convergence des minimisations. Une difficulté des algorithmes de localisation en temps réel par la vision (SLAM monoculaire) est que la trajectoire estimée est souvent affectée par des dérives : dérives d orientation, de position et d échelle. Puisque ces algorithmes sont incrémentaux, les erreurs et approximations sont cumulées tout au long de la trajectoire, et une dérive se forme sur la localisation globale. De plus, un système de localisation par vision peut toujours être ébloui ou utilisé dans des conditions qui ne permettent plus temporairement de calculer la localisation du système. Pour résoudre ces problèmes, nous proposons d utiliser un capteur supplémentaire mesurant les déplacements de la caméra. Le type de capteur utilisé varie suivant l application ciblée (un odomètre pour la localisation d un véhicule, une centrale inertielle légère ou un système de navigation à guidage inertiel pour localiser une personne). Notre approche consiste à intégrer ces informations complémentaires directement dans l ajustement de faisceaux, en ajoutant un terme de contrainte pondéré dans la fonction de coût. Nous évaluons trois méthodes permettant de sélectionner dynamiquement le coefficient de pondération et montrons que ces méthodes peuvent être employées dans un SLAM multi-capteur temps réel, avec différents types de contrainte, sur l orientation ou sur la norme du déplacement de la caméra. La méthode est applicable pour tout autre terme de moindres carrés. Les expérimentations menées sur des séquences vidéo réelles montrent que cette technique d ajustement de faisceaux contraint réduit les dérives observées avec les algorithmes de vision classiques. Ils améliorent ainsi la précision de la localisation globale du système.The works presented in this manuscript are in the field of computer vision, and tackle the problem of real-time vision based localization and 3D reconstruction. In this context, the trajectory of a camera and the 3D structure of the filmed scene are initially estimated by linear algorithms and then optimized by a nonlinear algorithm, bundle adjustment. The thesis first presents a new technique of line search, dedicated to the nonlinear minimization algorithms used in Structure-from-Motion. The proposed technique is not iterative and can be quickly installed in traditional bundle adjustment frameworks. This technique, called Global Algebraic Line Search (G-ALS), and its two-dimensional variant (Two way-ALS), accelerate the convergence of the bundle adjustment algorithm. The approximation of the reprojection error by an algebraic distance enables the analytical calculation of an effective displacement amplitude (or two amplitudes for the Two way-ALS variant) by solving a degree 3 (G-ALS) or 5 (Two way-ALS) polynomial. Our experiments, conducted on simulated and real data, show that this amplitude, which is optimal for the algebraic distance, is also efficient for the Euclidean distance and reduces the convergence time of minimizations. One difficulty of real-time tracking algorithms (monocular SLAM) is that the estimated trajectory is often affected by drifts : on the absolute orientation, position and scale. Since these algorithms are incremental, errors and approximations are accumulated throughout the trajectory and cause global drifts. In addition, a tracking vision system can always be dazzled or used under conditions which prevented temporarily to calculate the location of the system. To solve these problems, we propose to use an additional sensor measuring the displacement of the camera. The type of sensor used will vary depending on the targeted application (an odometer for a vehicle, a lightweight inertial navigation system for a person). We propose to integrate this additional information directly into an extended bundle adjustment, by adding a constraint term in the weighted cost function. We evaluate three methods (based on machine learning or regularization) that dynamically select the weight associated to the constraint and show that these methods can be used in a real time multi-sensor SLAM, and validate them with different types of constraint on the orientation or on the scale. Experiments conducted on real video sequences show that this technique of constrained bundle adjustment reduces the drifts observed with the classical vision algorithms and improves the global accuracy of the positioning system.CLERMONT FD-Bib.électronique (631139902) / SudocSudocFranceF

    Détection d'objets stationnaires par une paire de caméras PTZ

    No full text
    L analyse vidéo pour la vidéo-surveillance nécessite d avoir une bonne résolution pour pouvoir analyser les flux vidéo avec un maximum de robustesse. Dans le contexte de la détection d objets stationnaires dans les grandes zones, telles que les parkings, le compromis entre la largeur du champ d observation et la bonne résolution est difficile avec un nombre limité de caméras. Nous allons utiliser une paire de caméras à focale variable de type Pan-Tilt-Zoom (PTZ). Les caméras parcourent un ensemble de positions (pan, tilt, zoom) prédéfinies afin de couvrir l ensemble de la scène à une résolution adaptée. Chacune de ces positions peut être vue comme une caméra stationnaire à très faible taux de rafraîchissement. Dans un premier temps notre approche considère les positions des PTZ comme des caméras indépendantes. Une soustraction de fond robuste aux changements de luminosité reposant sur une grille de descripteurs SURF est effectuée pour séparer le fond du premier plan. La détection des objets stationnaires est effectuée par ré-identification des descripteurs à un modèle du premier plan. Dans un deuxième temps afin de filtrer certaines fausses alarmes et pouvoir localiser les objets en 3D une phase de mise en correspondance des silhouettes entre les deux caméras et effectuée. Les silhouettes des objets stationnaires sont placées dans un repère commun aux deux caméras en coordonnées rectifiées. Afin de pouvoir gérer les erreurs de segmentation, des groupes de silhouettes s expliquant mutuellement et provenant des deux caméras sont alors formés. Chacun de ces groupes (le plus souvent constitué d une silhouette de chaque caméra, mais parfois plus) correspond à un objet stationnaire. La triangulation des points frontière haut et bas permet ensuite d accéder à sa localisation 3D et à sa taille.Video analysis for video surveillance needs a good resolution in order to analyse video streams with a maximum of robustness. In the context of stationary object detection in wide areas a good compromise between a limited number of cameras and a high coverage of the area is hard to achieve. Here we use a pair of Pan-Tilt-Zoom (PTZ) cameras whose parameter (pan, tilt and zoom) can change. The cameras go through a predefined set of parameters chosen such that the entire scene is covered at an adapted resolution. For each triplet of parameters a camera can be assimilated to a stationary camera with a very low frame-rate and is referred to as a view. First each view is considered independently. A background subtraction algorithm, robust to changes in illumination and based on a grid of SURF descriptors, is proposed in order to separate background from foreground. Then the detection and segmentation of stationary objects is done by reidentifying foreground descriptor to a foreground model. Then in order to filter out false alarms and to localise the objects in the3D world, the detected stationary silhouettes are matched between the two cameras. To remain robust to segmentation errors, instead of matched a silhouette to another, groups of silhouettes from the two cameras and mutually explaining each other are matched. Each of the groups then correspond to a stationary object. Finally the triangulation of the top and bottom points of the silhouettes gives an estimation of the position and size of the object.CLERMONT FD-Bib.électronique (631139902) / SudocSudocFranceF
    • …
    corecore