25 research outputs found
Interprétation visuelle de symboles par un robot mobile
Pour un robot mobile, être capable de lire des symboles dont la signification est partagée avec les humains est primordiale pour que ces machines puissent évoluer dans des environnements courants. Doter les robots d'une telle capacité est très utile pour leur localisation à partir d'insignes ou pour le repérage d'objets ou de lieux importants. Les travaux effectués dans ce mémoire visent à développer les mécanismes et les algorithmes requis pour la reconnaissance des symboles à partir d'une caméra couleur. Les étapes pour y arriver sont l'extraction du symbole dans l'image, le contrôle du robot et de la caméra pour l'acquisition d'une image adéquate du symbole à identifier, et la reconnaissance du symbole. La segmentation des couleurs pour l'extraction du symbole dans l'image, l'approche comportementale hybride pour le contrôle du robot et de la caméra et l'utilisation d'un réseau de neurones à propagation avant pour la reconnaissance des symboles permettent de parvenir au but fixé en respectant les différentes conditions d'opération. La validation des travaux s'effectue à partir de 25 symboles pré-sélectionnés (lettres, chiffres, signes) imprimés en noir sur des feuilles 8.5" x 11" de trois couleurs différentes (bleu, rose, orange) et sous deux niveaux d'éclairage. Les résultats obtenus démontrent que les méthodes proposées permettent à un robot mobile d'interpréter un symbole en environ dix secondes à une distance moyenne de cinq pieds, et avec un taux de reconnaissance moyen d'environ 90%. Ces travaux démontrent la faisabilité de faire lire des symboles par un robot mobile et servent de point de départ pour des recherches visant à faire lire par des robots des messages de plus en plus complexes, comprenant plusieurs symboles agencés pour former des mots ou des phrases
ODAS: Open embeddeD Audition System
Artificial audition aims at providing hearing capabilities to machines,
computers and robots. Existing frameworks in robot audition offer interesting
sound source localization, tracking and separation performance, but involve a
significant amount of computations that limit their use on robots with embedded
computing capabilities. This paper presents ODAS, the Open embeddeD Audition
System framework, which includes strategies to reduce the computational load
and perform robot audition tasks on low-cost embedded computing systems. It
presents key features of ODAS, along with cases illustrating its uses in
different robots and artificial audition applications
Interprétation visuelle de symboles par un robot mobile
Pour un robot mobile, être capable de lire des symboles dont la signification est partagée avec les humains est primordiale pour que ces machines puissent évoluer dans des environnements courants. Doter les robots d'une telle capacité est très utile pour leur localisation à partir d'insignes ou pour le repérage d'objets ou de lieux importants. Les travaux effectués dans ce mémoire visent à développer les mécanismes et les algorithmes requis pour la reconnaissance des symboles à partir d'une caméra couleur. Les étapes pour y arriver sont l'extraction du symbole dans l'image, le contrôle du robot et de la caméra pour l'acquisition d'une image adéquate du symbole à identifier, et la reconnaissance du symbole. La segmentation des couleurs pour l'extraction du symbole dans l'image, l'approche comportementale hybride pour le contrôle du robot et de la caméra et l'utilisation d'un réseau de neurones à propagation avant pour la reconnaissance des symboles permettent de parvenir au but fixé en respectant les différentes conditions d'opération. La validation des travaux s'effectue à partir de 25 symboles pré-sélectionnés (lettres, chiffres, signes) imprimés en noir sur des feuilles 8.5" x 11" de trois couleurs différentes (bleu, rose, orange) et sous deux niveaux d'éclairage. Les résultats obtenus démontrent que les méthodes proposées permettent à un robot mobile d'interpréter un symbole en environ dix secondes à une distance moyenne de cinq pieds, et avec un taux de reconnaissance moyen d'environ 90%. Ces travaux démontrent la faisabilité de faire lire des symboles par un robot mobile et servent de point de départ pour des recherches visant à faire lire par des robots des messages de plus en plus complexes, comprenant plusieurs symboles agencés pour former des mots ou des phrases
introlab/openteraplus: OpenTeraPlus v1.2.0
<p>This major release upgrades the internal Qt version to 6, improves the general user interface visual and add new features</p>
<h3>New features</h3>
<ul>
<li>Feature #78 - Upgraded to Qt 6.6.1</li>
<li>Feature #81 - Added ability to manually select tests & data to download (instead of having to download them all)</li>
<li>Feature #88 - Properly managed disabled projects</li>
<li>Feature #89 - Added service roles management</li>
<li>Feature #90 - Added test types management to project and sites without having to go through the admin interface</li>
<li>Feature #91 - Added structure to generate user documentation</li>
<li>Feature #92 - Added project and site infos for online participants</li>
<li>Maximum number of invitees in a session upgraded from 5 to 6</li>
<li>Revised the user interface in many areas</li>
</ul>
<h3>Major issues fixed</h3>
<p>None</p>
<h3>Minor issues fixed</h3>
<p>None</p>
<h3>Known issues</h3>
<ul>
<li>Mac OS version is unsigned. Use "ctrl" key when clicking to launch the application the first time to allow execution.</li>
</ul>
Code reusability tools for programming mobile robots
Abstract — This paper describes two initiatives aiming at improving code reusability for programming mobile robots: RobotFlow/FlowDesigner, a data-flow programming environment; MARIE (Mobile and Autonomous Robotics Integration Environment), a programming environment allowing multiple applications, programs and tools, to operate on one or multiple machines/OS and work together on a mobile robot implementation. RobotFlow/FlowDesigner’s objective is to provide a modular, graphical programming environment that will help visualize and understand what is really happening in the robot’s control loops, sensors, actuators, by using graphical probes. MARIE aims at avoiding making an exclusive choice on particular programming tools, making it possible to reuse code and applications. I
Ultrasonic Relative Positioning for Multi-Robot Systems
Abstract — Coordination of a group of mobile robots is facilitated when they are able to determine their positions relative to each other. Instead of using an absolute positioning approach with fixed beacons in the operating environment, we have developed a ultrasonic relative positioning system that allows each robot to perceive the distance and the angle of other nearby robots in relation to its own position. The system is based on time-of-flight evaluation of ultrasonic pulses and a RF communication link. The system has a precision of 8 mm and of 3 ◦ over a 6.7 m range. This paper describes the system, its performance and its use on four Pioneer 2 robots moving in formation. I