5 research outputs found

    Introducing New AdaBoost Features for Real-Time Vehicle Detection

    No full text
    International audienceThis paper shows how to improve the real-time object detection in complex robotics applications, by exploring new visual features as AdaBoost weak classifiers. These new features are symmetric Haar filters (enforcing global horizontal and vertical symmetry) and N-connexity control points. Experimental evaluation on a car database show that the latter appear to provide the best results for the vehicle-detection problem

    Real-time visual detection of vehicles and pedestrians with new efficient adaBoost features

    No full text
    International audienceThis paper deals with real-time visual detection, by mono-camera, of objects categories such as cars and pedestrians. We report on improvements that can be obtained for this task, in complex applications such as advanced driving assistance systems, by using new visual features as adaBoost weak classifiers. These new features, the “connected controlpoints” have recently been shown to give very good results on real-time visual rear car detection. We here report on results obtained by applying these new features to a public lateral car images dataset, and a public pedestrian images database. We show that our new features consistently outperform previously published results on these databases, while still operating fast enough for real-time pedestrians and vehicles detection

    Fusion de données capteurs étendue pour applications vidéo embarquées

    Get PDF
    This thesis deals with sensor fusion between camera and inertial sensors measurements in order to provide a robust motion estimation algorithm for embedded video applications. The targeted platforms are mainly smartphones and tablets. We present a real-time, 2D online camera motion estimation algorithm combining inertial and visual measurements. The proposed algorithm extends the preemptive RANSAC motion estimation procedure with inertial sensors data, introducing a dynamic lagrangian hybrid scoring of the motion models, to make the approach adaptive to various image and motion contents. All these improvements are made with little computational cost, keeping the complexity of the algorithm low enough for embedded platforms. The approach is compared with pure inertial and pure visual procedures. A novel approach to real-time hybrid monocular visual-inertial odometry for embedded platforms is introduced. The interaction between vision and inertial sensors is maximized by performing fusion at multiple levels of the algorithm. Through tests conducted on sequences with ground-truth data specifically acquired, we show that our method outperforms classical hybrid techniques in ego-motion estimation.Le travail réalisé au cours de cette thèse se concentre sur la fusion des données d'une caméra et de capteurs inertiels afin d'effectuer une estimation robuste de mouvement pour des applications vidéos embarquées. Les appareils visés sont principalement les téléphones intelligents et les tablettes. On propose une nouvelle technique d'estimation de mouvement 2D temps réel, qui combine les mesures visuelles et inertielles. L'approche introduite se base sur le RANSAC préemptif, en l'étendant via l'ajout de capteurs inertiels. L'évaluation des modèles de mouvement se fait selon un score hybride, un lagrangien dynamique permettant une adaptation à différentes conditions et types de mouvements. Ces améliorations sont effectuées à faible coût, afin de permettre une implémentation sur plateforme embarquée. L'approche est comparée aux méthodes visuelles et inertielles. Une nouvelle méthode d'odométrie visuelle-inertielle temps réelle est présentée. L'interaction entre les données visuelles et inertielles est maximisée en effectuant la fusion dans de multiples étapes de l'algorithme. A travers des tests conduits sur des séquences acquises avec la vérité terrain, nous montrons que notre approche produit des résultats supérieurs aux techniques classiques de l'état de l'art

    Fusion multi-sources pour l'interprétation d'un environnement routier

    No full text
    Exceeding speed limits is a major cause of road accidents, which could be reduced by the use of robust detection of speed limits that may continuously inform the driver of the proper speed limitation. The work presented in this document relate to the achievement of such a system based on a visual detection of speed limit signs. To make the system robust, it is necessary to merge the results of these detections with information from other sensors to interpret the results of the visual detection. For this aim, two algorithms were developed. First, a specific geographic information system was developed in order to expand the electronic horizon of the vehicle. The fusion process in place addressing these various sources of information is based on model-based rules to overcome the problems inherent to the probabilistic fusion process that can sometimes lead to uncertain situations putting the whole system in global fault. These works are the fruit of collaboration with an automotive supplier and the prototype has been validated experimentally on the road and in real conditions. A ground truth tool has been specially developed to quantify the results. The system shows excellent results with high detection and classification rates for speed limit signs recognition and complex situations analysis.Le dépassement des limitations de vitesse est l'une des causes majeures des accidents de la route, qui pourraient être réduits par l'utilisation de système robuste de détection des limitations de vitesse pouvant continuellement informer le conducteur de la bonne limitation imposée. Les travaux présentés dans ce document portent sur la réalisation d'un tel système basé sur une détection visuelle des panneaux de limitation de vitesse. Afin de rendre le système robuste, il est nécessaire de fusionner les résultats de ces détections avec les informations d'autres capteurs pour interpréter les résultats issus de la détection visuelle. C'est ainsi qu'a été entre autre spécialement développé un capteur cartographique permettant d'avoir une vision plus large sur l'horizon électronique du véhicule, ainsi qu'un système détection des lignes de marquage au sol pour analyser les changements de voie. Le processus de fusion mis en place traitant ces diverses sources d'information est fondé sur des modèles à base de règles permettant de s'affranchir des problèmes inhérents aux processus de fusion probabilistes pouvant parfois mener à des situations de doute mettant le système global en faute. Ces travaux sont le fruit d'une collaboration avec un industriel et le prototype développé a été validé expérimentalement sur route. Un outil de vérité terrain a été spécialement développé pour quantifier les résultats. Le système montre d'excellents résultats en détection et reconnaissance des panneaux de limitation de vitesse ainsi que dans la clarification de situations complexes
    corecore