2 research outputs found
Cartographie, localisation et planification simultaneĢes āen ligneā, aĢ long terme et aĢ grande eĢchelle pour robot mobile
Pour eĢtre en mesure de naviguer dans des endroits inconnus et non structureĢs, un robot doit pouvoir cartographier lāenvironnement afin de sāy localiser. Ce probleĢme est connu sous le nom de cartographie et localisation simultaneĢes (ou SLAM pour Simultaneous Localization and Mapping). Une fois la carte de lāenvironnement creĢeĢe, des taĢches requeĢrant un deĢplacement dāun endroit connu aĢ un autre peuvent ainsi eĢtre planifieĢes. La charge de calcul du SLAM est deĢpendante de la grandeur de la carte. Un robot a une puissance de calcul embarqueĢe limiteĢe pour arriver aĢ traiter lāinformation āen ligneā, cāest-aĢ-dire aĢ bord du robot avec un temps de traitement des donneĢes moins long que le temps dāacquisition des donneĢes ou le temps maximal permis de mise aĢ jour de la carte. La navigation du robot tout en faisant le SLAM est donc limiteĢe par la taille de lāenvironnement aĢ cartographier.
Pour reĢsoudre cette probleĢmatique, lāobjectif est de deĢvelopper un algorithme de SPLAM (Simultaneous Planning Localization and Mapping) permettant la navigation peu importe la taille de lāenvironment. Pour geĢrer efficacement la charge de calcul de cet algorithme, la meĢmoire du robot est diviseĢe en une meĢmoire de travail et une meĢmoire aĢ long terme. Lorsque la contrainte de traitement āen ligneā est atteinte, les endroits vus les moins souvent et qui ne sont pas utiles pour la navigation sont transfeĢreĢes de la meĢmoire de travail aĢ la meĢmoire aĢ long terme. Les endroits transfeĢreĢs dans la meĢmoire aĢ long terme ne sont plus utiliseĢs pour la navigation. Cependant, ces endroits transfeĢreĢs peuvent eĢtre reĢcupeĢreĢes de la meĢmoire aĢ long terme aĢ la meĢmoire de travail lorsque le le robot sāapproche dāun endroit voisin encore dans la meĢmoire de travail. Le robot peut ainsi se rappeler increĢmentalement dāune partie de lāenvironment a priori oublieĢe afin de pouvoir sāy localiser pour le suivi de trajectoire.
Lāalgorithme, nommeĢ RTAB-Map, a eĢteĢ testeĢ sur le robot AZIMUT-3 dans une premieĢre expeĢrience de cartographie sur cinq sessions indeĢpendantes, afin dāeĢvaluer la capaciteĢ du systeĢme aĢ fusionner plusieurs cartes āen ligneā. La seconde expeĢrience, avec le meĢme robot utiliseĢ lors de onze sessions totalisant 8 heures de deĢplacement, a permis dāeĢvaluer la capaciteĢ du robot de naviguer de facĢ§on autonome tout en faisant du SLAM et planifier des trajectoires continuellement sur une longue peĢriode en respectant la contrainte de traitement āen ligneā . Enfin, RTAB-Map est compareĢ aĢ dāautres systeĢmes de SLAM sur quatre ensembles de donneĢes populaires pour des applications de voiture autonome (KITTI), balayage aĢ la main avec une cameĢra RGB-D (TUM RGB-D), de drone (EuRoC) et de navigation inteĢrieur avec un robot PR2 (MIT Stata Center).
Les reĢsultats montrent que RTAB-Map peut eĢtre utiliseĢ sur de longue peĢriode de temps en navigation autonome tout en respectant la contrainte de traitement āen ligneā et avec une qualiteĢ de carte comparable aux approches de lāeĢtat de lāart en SLAM visuel et avec teĢleĢmeĢtre laser. ll en reĢsulte dāun logiciel libre deĢployeĢ dans une multitude dāapplications allant des robots mobiles inteĢrieurs peu couĢteux aux voitures autonomes, en passant par les drones et la modeĢlisation 3D de lāinteĢrieur dāune maison
A multiple optical tracking based approach for enhancing hand-based interaction in virtual reality simulations
A thesis submitted in partial fulfilment of the requirements of the University of Wolverhampton for the degree of Doctor of Philosophy.Research exploring natural virtual reality interaction has seen significant success in optical tracker-based approaches, enabling users to freely interact using their hands. Optical based trackers can provide users with real-time, high-fidelity virtual hand representations for natural interaction and an immersive experience. However, work in this area has identified four issues: occlusion, field-of-view, stability and accuracy.
To overcome the four key issues, researchers have investigated approaches such as using multiple sensors. Research has shown multi-sensor-based approaches to be effective in improving recognition accuracy. However, such approaches typically use statically positioned sensors, which introduce body occlusion issues that make tracking hands challenging. Machine learning approaches have also been explored to improve gesture recognition. However, such approaches typically require a pre-set gesture vocabulary limiting user actions with larger vocabularies hindering real-time performance.
This thesis presents an optical hand-based interaction system that comprises two Leap Motion sensors mounted onto a VR headset at different orientations. Novel approaches to the aggregation and validation of sensor data are presented. A machine learning sub-system is developed to validate hand data received by the sensors. Occlusion detection, stability detection, inferred hands and a hand interpolation sub-system are also developed to ensure that valid hand representations are always shown to the user. In addition, a mesh conformation sub-system ensures 3D objects are appropriately held in a userās virtual hand. The presented system addresses the four key issues of optical sessions to provide a smooth and consistent user experience.
The MOT system is evaluated against traditional interaction approaches; gloves, motion controllers and a single front-facing sensor configuration. The comparative sensor evaluation analysed the validity and availability of tracking data, along with each sensors effect on the MOT system. The results show the MOT provides a more stable experience than the front-facing configuration and produces significantly more valid tracking data. The results also demonstrated the effectiveness of a 45-degree sensor configuration in comparison to a front-facing. Furthermore, the results demonstrated the effectiveness of the MOT systems solutions at handling the four key issues with optical trackers