6 research outputs found
Localisation collaborative visuelle-inertielle de robots hétérogÚnes communicants
Localization is of crucial importance for robots navigation. This importance has allowed the emergence of several precise localization techniques. Our contribution consists of proposing a transition from an individual inertial visual localization technique to the multi-robots collaborative localization case. This work aims to achieve a collaborative localization as fast, robust and accurate as the individual starting technique. We adopt a tightly coupled MSCKF (Multi State Constraint Kalman Filter) approach to achieve the data fusion. The characteristics of this data fusion are first studied in the individual case to test the robustness and the precision under different conditions and with different observation models. The results of this study directed us towards the best structure adapted to an augmentation to the collaborative localization case. The proposed collaborative algorithm is a hierarchical process of three stages. A collaborative localization is initialized based on the relative distance measurements using Ultra-Wide Band (ULB) sensors. Then, a collaborative localization based on images overlapping using a suitable measurement model, and a data fusion structure that absorbs the computation time excess caused by the collaboration is achieved. Finally, to increase precision, an extraction of the environment constraints, followed by an integration using a truncation in the filter are proposed.La capacitĂ© Ă se localiser est dâune importance cruciale pour la navigation des robots. Cette importance a permis le dĂ©veloppement de plusieurs techniques de localisation de grande prĂ©cision. Notre contribution consiste Ă proposer un passage de la technique de localisation visuelle inertielle du cas individuel, au cas multi collaboratif. Ce travail a pour objectif dâaboutir Ă une localisation collaborative aussi rapide, robuste et prĂ©cise que la technique individuelle de dĂ©part. Notre approche se base sur le filtrage en couplage serrĂ© Multi State Constraint Kalman Filter (MSCKF) pour la fusion de donnĂ©es. Les caractĂ©ristiques de ce filtrage sont dâabord Ă©tudiĂ©es dans le cas individuel pour tester la robustesse et la prĂ©cision dans diffĂ©rentes conditions et avec diffĂ©rents modĂšles dâobservation. Les rĂ©sultats de cette Ă©tude nous ont orientĂ© vers la structure la mieux adaptĂ©e Ă une augmentation au cas de localisation collaborative. Lâalgorithme collaboratif proposĂ©, est basĂ© sur un processus hiĂ©rarchique en trois Ă©tapes. Une localisation collaborative est initialisĂ©e sur la base des mesures relatives de distances Ultra Large Bande (ULB). Une localisation collaborative amĂ©liorĂ©e se base ensuite sur le chevauchement des images en utilisant un modĂšle de mesure adaptĂ©, et une structure de fusion de donnĂ©es qui absorbe lâexcĂ©dent en temps de calcul provoquĂ© par le traitement collaboratif. Enfin, pour augmenter la prĂ©cision, une extraction des contraintes de structure environnement, suivie dâune intĂ©gration Ă lâaide dâune troncature dans le filtre sont proposĂ©es
Visual-inertial collaborative location of communicating heterogeneous robots
La capacitĂ© Ă se localiser est dâune importance cruciale pour la navigation des robots. Cette importance a permis le dĂ©veloppement de plusieurs techniques de localisation de grande prĂ©cision. Notre contribution consiste Ă proposer un passage de la technique de localisation visuelle inertielle du cas individuel, au cas multi collaboratif. Ce travail a pour objectif dâaboutir Ă une localisation collaborative aussi rapide, robuste et prĂ©cise que la technique individuelle de dĂ©part. Notre approche se base sur le filtrage en couplage serrĂ© Multi State Constraint Kalman Filter (MSCKF) pour la fusion de donnĂ©es. Les caractĂ©ristiques de ce filtrage sont dâabord Ă©tudiĂ©es dans le cas individuel pour tester la robustesse et la prĂ©cision dans diffĂ©rentes conditions et avec diffĂ©rents modĂšles dâobservation. Les rĂ©sultats de cette Ă©tude nous ont orientĂ© vers la structure la mieux adaptĂ©e Ă une augmentation au cas de localisation collaborative. Lâalgorithme collaboratif proposĂ©, est basĂ© sur un processus hiĂ©rarchique en trois Ă©tapes. Une localisation collaborative est initialisĂ©e sur la base des mesures relatives de distances Ultra Large Bande (ULB). Une localisation collaborative amĂ©liorĂ©e se base ensuite sur le chevauchement des images en utilisant un modĂšle de mesure adaptĂ©, et une structure de fusion de donnĂ©es qui absorbe lâexcĂ©dent en temps de calcul provoquĂ© par le traitement collaboratif. Enfin, pour augmenter la prĂ©cision, une extraction des contraintes de structure environnement, suivie dâune intĂ©gration Ă lâaide dâune troncature dans le filtre sont proposĂ©es.Localization is of crucial importance for robots navigation. This importance has allowed the emergence of several precise localization techniques. Our contribution consists of proposing a transition from an individual inertial visual localization technique to the multi-robots collaborative localization case. This work aims to achieve a collaborative localization as fast, robust and accurate as the individual starting technique. We adopt a tightly coupled MSCKF (Multi State Constraint Kalman Filter) approach to achieve the data fusion. The characteristics of this data fusion are first studied in the individual case to test the robustness and the precision under different conditions and with different observation models. The results of this study directed us towards the best structure adapted to an augmentation to the collaborative localization case. The proposed collaborative algorithm is a hierarchical process of three stages. A collaborative localization is initialized based on the relative distance measurements using Ultra-Wide Band (ULB) sensors. Then, a collaborative localization based on images overlapping using a suitable measurement model, and a data fusion structure that absorbs the computation time excess caused by the collaboration is achieved. Finally, to increase precision, an extraction of the environment constraints, followed by an integration using a truncation in the filter are proposed
Localisation collaborative visuelle-inertielle de robots hétérogÚnes communicants
Localization is of crucial importance for robots navigation. This importance has allowed the emergence of several precise localization techniques. Our contribution consists of proposing a transition from an individual inertial visual localization technique to the multi-robots collaborative localization case. This work aims to achieve a collaborative localization as fast, robust and accurate as the individual starting technique. We adopt a tightly coupled MSCKF (Multi State Constraint Kalman Filter) approach to achieve the data fusion. The characteristics of this data fusion are first studied in the individual case to test the robustness and the precision under different conditions and with different observation models. The results of this study directed us towards the best structure adapted to an augmentation to the collaborative localization case. The proposed collaborative algorithm is a hierarchical process of three stages. A collaborative localization is initialized based on the relative distance measurements using Ultra-Wide Band (ULB) sensors. Then, a collaborative localization based on images overlapping using a suitable measurement model, and a data fusion structure that absorbs the computation time excess caused by the collaboration is achieved. Finally, to increase precision, an extraction of the environment constraints, followed by an integration using a truncation in the filter are proposed.La capacitĂ© Ă se localiser est dâune importance cruciale pour la navigation des robots. Cette importance a permis le dĂ©veloppement de plusieurs techniques de localisation de grande prĂ©cision. Notre contribution consiste Ă proposer un passage de la technique de localisation visuelle inertielle du cas individuel, au cas multi collaboratif. Ce travail a pour objectif dâaboutir Ă une localisation collaborative aussi rapide, robuste et prĂ©cise que la technique individuelle de dĂ©part. Notre approche se base sur le filtrage en couplage serrĂ© Multi State Constraint Kalman Filter (MSCKF) pour la fusion de donnĂ©es. Les caractĂ©ristiques de ce filtrage sont dâabord Ă©tudiĂ©es dans le cas individuel pour tester la robustesse et la prĂ©cision dans diffĂ©rentes conditions et avec diffĂ©rents modĂšles dâobservation. Les rĂ©sultats de cette Ă©tude nous ont orientĂ© vers la structure la mieux adaptĂ©e Ă une augmentation au cas de localisation collaborative. Lâalgorithme collaboratif proposĂ©, est basĂ© sur un processus hiĂ©rarchique en trois Ă©tapes. Une localisation collaborative est initialisĂ©e sur la base des mesures relatives de distances Ultra Large Bande (ULB). Une localisation collaborative amĂ©liorĂ©e se base ensuite sur le chevauchement des images en utilisant un modĂšle de mesure adaptĂ©, et une structure de fusion de donnĂ©es qui absorbe lâexcĂ©dent en temps de calcul provoquĂ© par le traitement collaboratif. Enfin, pour augmenter la prĂ©cision, une extraction des contraintes de structure environnement, suivie dâune intĂ©gration Ă lâaide dâune troncature dans le filtre sont proposĂ©es