8 research outputs found

    Sistema de Seguimiento por Imágenes Asistido por GNSS-GPS: TV Tracker

    Get PDF
    En este trabajo se presenta seguidor electro óptico, TV Tracker. Se describe la etapa mecánica así como la motorización del pedestal de dos ejes sobre el que se montó un sensor óptico para el seguimiento por imágenes. Luego se discute la máxima resolución alcanzable según la precisión de los sensores y herramientas para la instalación de la montura de seguimiento en el terreno. También se describe la etapa telemétrica de las coordenadas GPS del objetivo a seguir, que sirve de apoyo al seguimiento por imágenes en situaciones en que éstas no se encuentran disponibles debido a pérdida de la visibilidad del móvil. Se contrasta la precisión esperable de cada método de seguimiento (imágenes y GPS) y se explica el sentido de una fusión entre ambas fuentes de información para el seguimiento, y se describe el funcionamiento del software de comando del seguidor. Finalmente se ensaya el sistema en dos situaciones clave, primero se sigue un avión comercial sin asistencia del sistema de navegación satelital, y luego se sigue un objetivo en tierra bajo situaciones de visibilidad y ocultamiento de duración variable. Se presentan y analizan resultados y se proponen líneas de investigación futura.Fil: García Bravo, Santiago. Instituto Universitario Aeronáutico; Argentina.Fil: Curetti, María. Instituto Universitario Aeronáutico; Argentina.Fil: Arri, Gabriela. Instituto Universitario Aeronáutico; Argentina.Fil: Pucheta, Julián. Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales; Argentina.Fil: Mathé, Ladislao. Instituto Universitario Aeronáutico; Argentina.Control Automático y Robótic

    Sistema de seguimiento por imágenes asistido por GNSS-GPS:TV Tracker

    Get PDF
    En este trabajo se presenta el desarrollo de un seguidor electro óptico, TV Tracker. Se describe la etapa mecánica así como la motorización del pedestal de dos ejes sobre el que se montó un sensor óptico para el seguimiento por imágenes. Luego se discute la máxima resolución alcanzable según la precisión de los sensores y herramientas para la instalación de la montura de seguimiento en el terreno. También se describe la etapa telemétrica de las coordenadas GPS del objetivo a seguir, que sirve de apoyo al seguimiento por imágenes en situaciones en que éstas no se encuentran disponibles debido a pérdida de la visibilidad del móvil. Se contrasta la precisión esperable de cada método de seguimiento (imágenes y GPS) y se explica el sentido de una fusión entre ambas fuentes de información para el seguimiento. También se describe el funcionamiento del software de comando del seguidor. Finalmente se ensaya el sistema en dos situaciones clave, primero se sigue un avión comercial en modo óptico sin asistencia del sistema de navegación satelital, y luego se sigue un objetivo en tierra bajo situaciones de visibilidad y ocultamiento de duración variable. Se presentan y analizan resultados y se proponen líneas de investigación futura.Fil: Bravo, Santiago García. Instituto Universitario Aeronáutico Córdoba; Argentina.Fil: Curetti, María. Instituto Universitario Aeronáutico Córdoba; Argentina.Fil: Arri, Gabriela. Instituto Universitario Aeronáutico Córdoba; Argentina.Fil: Pucheta, Julián. Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales; Argentina.Fil: Mathé, Ladislao. Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales; Argentina.Ingeniería de Sistemas y Comunicacione

    Real-time Edge-enhanced Dynamic Correlation and Predictive Open-loop Car-following Control for Robust Tracking

    No full text
    We present a robust framework for a real-time visual tracking system, based on a BPNN-controlled fast normalized correlation (BCFNC) algorithm and a predictive open-loop car-following control (POL-CFC) strategy. The search for the target is carried out in a dynamically generated resizable search-window. In order to achieve the robustness, we use some edge-enhancement operations before the correlation operation, and introduce an adaptive template-updating scheme. The proposed tracking algorithm is compared with various correlation-based techniques and (in some cases) with the mean-shift and the condensation trackers on real-world scenarios. A significant improvement in efficiency and robustness is reported. The POL-CFC algorithm approximates the current velocity of an open-loop pan-tilt unit, computes the predicted relative-velocity of the object using Kalman filter, and generates the precise control signals to move the camera accurately towards the maneuvering target regardless of its changing velocity. 1 The proposed system works in real-time at the speed of 25 to 200 frames/second depending on the template size, and it can persistently track a distant or near object even in the presence of object fading, low-contrast imagery, noise, short-lived background clutter, object-scaling, changing object-velocity, varying illumination, object maneuvering, multiple objects, obscuration, and sudden occlusion. Visual tracking, BPNN-controlled fast normalized correlation, dynamic search-window, robust template-updating, predictive open-loop car-following control I

    Real-time edge-enhanced dynamic correlation and predictive open-loop car-following control for robust tracking

    No full text
    We present a robust framework for a real-time visual tracking system, based on a BPNN-controlled fast normalized correlation (BCFNC) algorithm and a predictive open-loop car-following control (POL-CFC) strategy. The search for the target is carried out in a dynamically generated resizable search-window. In order to achieve the robustness, we use some edge-enhancement operations before the correlation operation, and introduce an adaptive template-updating scheme. The proposed tracking algorithm is compared with various correlation-based techniques and (in some cases) with the mean-shift and the condensation trackers on real-world scenarios. A significant improvement in efficiency and robustness is reported. The POL-CFC algorithm approximates the current velocity of an open-loop pan-tilt unit, computes the predicted relative-velocity of the object using Kalman filter, and generates the precise control signals to move the camera accurately towards the maneuvering target regardless of its changing velocity. The proposed system works in real-time at the speed of 25-200 frames/ second depending on the template size, and it can persistently track a distant or near object even in the presence of object fading, low-contrast imagery, noise, short-lived background clutter, object-scaling, changing object-velocity, varying illumination, object maneuvering, multiple objects, obscuration, and sudden occlusion

    Real-Time Edge-Enhanced Dynamic Correlation And Predictive Open-Loop Car-Following Control For Robust Tracking

    No full text
    We present a robust framework for a real-time visual tracking system, based on a BPNN-controlled fast normalized correlation (BCFNC) algorithm and a predictive open-loop car-following control (POL-CFC) strategy. The search for the target is carried out in a dynamically generated resizable search-window. In order to achieve the robustness, we use some edge-enhancement operations before the correlation operation, and introduce an adaptive template-updating scheme. The proposed tracking algorithm is compared with various correlation-based techniques and (in some cases) with the mean-shift and the condensation trackers on real-world scenarios. A significant improvement in efficiency and robustness is reported. The POL-CFC algorithm approximates the current velocity of an open-loop pan-tilt unit, computes the predicted relative-velocity of the object using Kalman filter, and generates the precise control signals to move the camera accurately towards the maneuvering target regardless of its changing velocity. The proposed system works in real-time at the speed of 25-200 frames/ second depending on the template size, and it can persistently track a distant or near object even in the presence of object fading, low-contrast imagery, noise, short-lived background clutter, object-scaling, changing object-velocity, varying illumination, object maneuvering, multiple objects, obscuration, and sudden occlusion. © 2007 Springer-Verlag

    Low and Variable Frame Rate Face Tracking Using an IP PTZ Camera

    Get PDF
    RÉSUMÉ En vision par ordinateur, le suivi d'objets avec des caméras PTZ a des applications dans divers domaines, tels que la surveillance vidéo, la surveillance du trafic, la surveillance de personnes et la reconnaissance de visage. Toutefois, un suivi plus précis, efficace, et fiable est requis pour une utilisation courante dans ces domaines. Dans cette thèse, le suivi est appliqué au haut du corps d'un humain, en incluant son visage. Le suivi du visage permet de déterminer son emplacement pour chaque trame d'une vidéo. Il peut être utilisé pour obtenir des images du visage d'un humain dans des poses différentes. Dans ce travail, nous proposons de suivre le visage d'un humain à l’aide d'une caméra IP PTZ (caméra réseau orientable). Une caméra IP PTZ répond à une commande via son serveur Web intégré et permet un accès distribué à partir d'Internet. Le suivi avec ce type de caméra inclut un bon nombre de défis, tels que des temps de réponse irrégulier aux commandes de contrôle, des taux de trame faibles et irréguliers, de grand mouvements de la cible entre deux trames, des occlusions, des modifications au champ de vue, des changements d'échelle, etc. Dans notre travail, nous souhaitons solutionner les problèmes des grands mouvements de la cible entre deux trames consécutives, du faible taux de trame, des modifications de l'arrière-plan, et du suivi avec divers changements d'échelle. En outre, l'algorithme de suivi doit prévoir les temps de réponse irréguliers de la caméra. Notre solution se compose d’une phase d’initialisation pour modéliser la cible (haut du corps), d’une adaptation du filtre de particules qui utilise le flux optique pour générer des échantillons à chaque trame (APF-OFS), et du contrôle de la caméra. Chaque composante exige des stratégies différentes. Lors de l'initialisation, on suppose que la caméra est statique. Ainsi, la détection du mouvement par soustraction d’arrière-plan est utilisée pour détecter l'emplacement initial de la personne. Ensuite, pour supprimer les faux positifs, un classificateur Bayesien est appliqué sur la région détectée afin de localiser les régions avec de la peau. Ensuite, une détection du visage basée sur la méthode de Viola et Jones est effectuée sur les régions de la peau. Si un visage est détecté, le suivi est lancé sur le haut du corps de la personne.----------ABSTRACT Object tracking with PTZ cameras has various applications in different computer vision topics such as video surveillance, traffic monitoring, people monitoring and face recognition. Accurate, efficient, and reliable tracking is required for this task. Here, object tracking is applied to human upper body tracking and face tracking. Face tracking determines the location of the human face for each input image of a video. It can be used to get images of the face of a human target under different poses. We propose to track the human face by means of an Internet Protocol (IP) Pan-Tilt-Zoom (PTZ) camera (i.e. a network-based camera that pans, tilts and zooms). An IP PTZ camera responds to command via its integrated web server. It allows a distributed access from Internet (access from everywhere, but with non-defined delay). Tracking with such camera includes many challenges such as irregular response times to camera control commands, low and irregular frame rate, large motions of the target between two frames, target occlusion, changing field of view (FOV), various scale changes, etc. In our work, we want to cope with the problem of large inter-frame motion of targets, low usable frame rate, background changes, and tracking with various scale changes. In addition, the tracking algorithm should handle the camera response time and zooming. Our solution consists of a system initialization phase which is the processing before camera motion and a tracker based on an Adaptive Particle Filter using Optical Flow based Sampling (APF-OFS) tracker, and camera control that are the processing after the motion of the camera. Each part requires different strategies. For initialization, when the camera is stationary, motion detection for a static camera is used to detect the initial location of the person face entering an area. For motion detection in the FOV of the camera, a background subtraction method is applied. Then to remove false positives, Bayesian skin classifier is applied on the detected motion region to discriminate skin regions from non skin regions. Face detection based on Viola and Jones face detector can be performed on the detected skin regions independently of their face size and position within the image
    corecore