24 research outputs found

    Interprétation visuelle de symboles par un robot mobile

    Get PDF
    Pour un robot mobile, être capable de lire des symboles dont la signification est partagée avec les humains est primordiale pour que ces machines puissent évoluer dans des environnements courants. Doter les robots d'une telle capacité est très utile pour leur localisation à partir d'insignes ou pour le repérage d'objets ou de lieux importants. Les travaux effectués dans ce mémoire visent à développer les mécanismes et les algorithmes requis pour la reconnaissance des symboles à partir d'une caméra couleur. Les étapes pour y arriver sont l'extraction du symbole dans l'image, le contrôle du robot et de la caméra pour l'acquisition d'une image adéquate du symbole à identifier, et la reconnaissance du symbole. La segmentation des couleurs pour l'extraction du symbole dans l'image, l'approche comportementale hybride pour le contrôle du robot et de la caméra et l'utilisation d'un réseau de neurones à propagation avant pour la reconnaissance des symboles permettent de parvenir au but fixé en respectant les différentes conditions d'opération. La validation des travaux s'effectue à partir de 25 symboles pré-sélectionnés (lettres, chiffres, signes) imprimés en noir sur des feuilles 8.5" x 11" de trois couleurs différentes (bleu, rose, orange) et sous deux niveaux d'éclairage. Les résultats obtenus démontrent que les méthodes proposées permettent à un robot mobile d'interpréter un symbole en environ dix secondes à une distance moyenne de cinq pieds, et avec un taux de reconnaissance moyen d'environ 90%. Ces travaux démontrent la faisabilité de faire lire des symboles par un robot mobile et servent de point de départ pour des recherches visant à faire lire par des robots des messages de plus en plus complexes, comprenant plusieurs symboles agencés pour former des mots ou des phrases

    ODAS: Open embeddeD Audition System

    Full text link
    Artificial audition aims at providing hearing capabilities to machines, computers and robots. Existing frameworks in robot audition offer interesting sound source localization, tracking and separation performance, but involve a significant amount of computations that limit their use on robots with embedded computing capabilities. This paper presents ODAS, the Open embeddeD Audition System framework, which includes strategies to reduce the computational load and perform robot audition tasks on low-cost embedded computing systems. It presents key features of ODAS, along with cases illustrating its uses in different robots and artificial audition applications

    Interprétation visuelle de symboles par un robot mobile

    No full text
    Pour un robot mobile, être capable de lire des symboles dont la signification est partagée avec les humains est primordiale pour que ces machines puissent évoluer dans des environnements courants. Doter les robots d'une telle capacité est très utile pour leur localisation à partir d'insignes ou pour le repérage d'objets ou de lieux importants. Les travaux effectués dans ce mémoire visent à développer les mécanismes et les algorithmes requis pour la reconnaissance des symboles à partir d'une caméra couleur. Les étapes pour y arriver sont l'extraction du symbole dans l'image, le contrôle du robot et de la caméra pour l'acquisition d'une image adéquate du symbole à identifier, et la reconnaissance du symbole. La segmentation des couleurs pour l'extraction du symbole dans l'image, l'approche comportementale hybride pour le contrôle du robot et de la caméra et l'utilisation d'un réseau de neurones à propagation avant pour la reconnaissance des symboles permettent de parvenir au but fixé en respectant les différentes conditions d'opération. La validation des travaux s'effectue à partir de 25 symboles pré-sélectionnés (lettres, chiffres, signes) imprimés en noir sur des feuilles 8.5" x 11" de trois couleurs différentes (bleu, rose, orange) et sous deux niveaux d'éclairage. Les résultats obtenus démontrent que les méthodes proposées permettent à un robot mobile d'interpréter un symbole en environ dix secondes à une distance moyenne de cinq pieds, et avec un taux de reconnaissance moyen d'environ 90%. Ces travaux démontrent la faisabilité de faire lire des symboles par un robot mobile et servent de point de départ pour des recherches visant à faire lire par des robots des messages de plus en plus complexes, comprenant plusieurs symboles agencés pour former des mots ou des phrases

    Code reusability tools for programming mobile robots

    No full text
    Abstract — This paper describes two initiatives aiming at improving code reusability for programming mobile robots: RobotFlow/FlowDesigner, a data-flow programming environment; MARIE (Mobile and Autonomous Robotics Integration Environment), a programming environment allowing multiple applications, programs and tools, to operate on one or multiple machines/OS and work together on a mobile robot implementation. RobotFlow/FlowDesigner’s objective is to provide a modular, graphical programming environment that will help visualize and understand what is really happening in the robot’s control loops, sensors, actuators, by using graphical probes. MARIE aims at avoiding making an exclusive choice on particular programming tools, making it possible to reuse code and applications. I

    Ultrasonic Relative Positioning for Multi-Robot Systems

    No full text
    Abstract — Coordination of a group of mobile robots is facilitated when they are able to determine their positions relative to each other. Instead of using an absolute positioning approach with fixed beacons in the operating environment, we have developed a ultrasonic relative positioning system that allows each robot to perceive the distance and the angle of other nearby robots in relation to its own position. The system is based on time-of-flight evaluation of ultrasonic pulses and a RF communication link. The system has a precision of 8 mm and of 3 ◦ over a 6.7 m range. This paper describes the system, its performance and its use on four Pioneer 2 robots moving in formation. I

    Autonomous Initialization of Robot Formations

    No full text
    Abstract — Real life deployment of robot formation cannot assume that robots are going to be correctly positioned to move in a particular configuration. To do so, we propose an approach that allows the group to determine autonomously the most appropriate assignment of positions in the formation. Our approach is distributed and uses directional visual perception to localize robots. Inter-robot communication allows them to share information on which robots are nearby, so that each can evaluate it ability to be the conductor of the group and assign formation positions to the other robots by minimizing repositioning. The assignment search is done using a distributed bounded depth-first with pruning search. The robot with the best score is selected as the conductor, and the other robots received from the conductor their assignment in the formation. Validation of our work is done in simulation and with Pioneer 2 robots. I
    corecore