42 research outputs found

    Constructing informative Bayesian map priors: A multi-objective optimisation approach applied to indoor occupancy grid mapping

    Get PDF
    The problem of simultaneous localisation and mapping (SLAM) has been addressed in numerous ways with different approaches aiming to produce faster, more robust solutions that yield consistent maps. This focus, however, has resulted in a number of solutions that perform poorly in challenging real life scenarios. In order to achieve improved performance and map quality this article proposes a novel method to construct informative Bayesian mapping priors through a multi-objective optimisation of prior map design variables defined using a source of prior information. This concept is explored for 2D occupancy grid SLAM, constructing such priors by extracting structural information from architectural drawings and identifying optimised prior values to assign to detected walls and empty space. Using the proposed method a contextual optimised prior can be constructed. This prior is found to yield better quantitative and qualitative performance than the commonly used non-informative prior, yielding an increase of over 20% in the F2 metric. This is achieved without adding to the computational complexity of the SLAM algorithm, making it a good fit for time critical real life applications such as search and rescue missions

    Constructing informative Bayesian priors to improve SLAM map quality

    Get PDF
    The problem of Simultaneous Localisation And Mapping (SLAM) has been widely researched and has been of particular interest in recent years, with robots and self driving cars becoming ubiquitous. SLAM solutions to date have aimed to produce faster, more robust solutions that yield consistent maps by improving the filtering algorithms used, introducing better sensors, more efficient map representations or improved motion estimates. Whilst performing well in simplified scenarios, many of these solutions perform poorly in challenging real life scenarios. It is therefore important to produce SLAM solutions that can perform well even when using limited computational resources and performing a quick exploration for time critical operations such as Urban Search And Rescue missions. In order to address this problem this thesis proposes the construction of informative Bayesian priors to improve performance without adding to the computational complexity of the SLAM algorithm. Indoors occupancy grid SLAM is used as a case study to demonstrate this concept and architectural drawings are used as a source of prior information. The use of prior information to improve the performance of robotics systems has been successful in applications such as visual odometry, self-driving car navigation and object recognition. However, none of these solutions leverage prior information to construct Bayesian priors that can be used in recursive map estimation. This thesis addresses this problem and proposes a novel method to process architectural drawings and floor plans to extract structural information. A study is then conducted to identify optimal prior values of occupancy to assign to extracted walls and empty space. A novel approach is proposed to assess the quality of maps produced using different priors and a multi-objective optimisation is used to identify Pareto optimal values. The proposed informative priors are found to perform better than the commonly used non-informative prior, yielding an increase of over 20% in the F2 metric, without adding to the computational complexity of the SLAM algorithm

    3D Reconstruction of Indoor Corridor Models Using Single Imagery and Video Sequences

    Get PDF
    In recent years, 3D indoor modeling has gained more attention due to its role in decision-making process of maintaining the status and managing the security of building indoor spaces. In this thesis, the problem of continuous indoor corridor space modeling has been tackled through two approaches. The first approach develops a modeling method based on middle-level perceptual organization. The second approach develops a visual Simultaneous Localisation and Mapping (SLAM) system with model-based loop closure. In the first approach, the image space was searched for a corridor layout that can be converted into a geometrically accurate 3D model. Manhattan rule assumption was adopted, and indoor corridor layout hypotheses were generated through a random rule-based intersection of image physical line segments and virtual rays of orthogonal vanishing points. Volumetric reasoning, correspondences to physical edges, orientation map and geometric context of an image are all considered for scoring layout hypotheses. This approach provides physically plausible solutions while facing objects or occlusions in a corridor scene. In the second approach, Layout SLAM is introduced. Layout SLAM performs camera localization while maps layout corners and normal point features in 3D space. Here, a new feature matching cost function was proposed considering both local and global context information. In addition, a rotation compensation variable makes Layout SLAM robust against cameras orientation errors accumulations. Moreover, layout model matching of keyframes insures accurate loop closures that prevent miss-association of newly visited landmarks to previously visited scene parts. The comparison of generated single image-based 3D models to ground truth models showed that average ratio differences in widths, heights and lengths were 1.8%, 3.7% and 19.2% respectively. Moreover, Layout SLAM performed with the maximum absolute trajectory error of 2.4m in position and 8.2 degree in orientation for approximately 318m path on RAWSEEDS data set. Loop closing was strongly performed for Layout SLAM and provided 3D indoor corridor layouts with less than 1.05m displacement errors in length and less than 20cm in width and height for approximately 315m path on York University data set. The proposed methods can successfully generate 3D indoor corridor models compared to their major counterpart

    Inverse kinematics solution for trajectory tracking using artificial neural networks for SCORBOT ER-4u

    Get PDF
    This paper presents the kinematic analysis of the SCORBOT-ER 4u robot arm using a Multi-Layered Feed-Forward (MLFF) Neural Network. The SCORBOT-ER 4u is a 5-DOF vertical articulated educational robot with revolute joints. The Denavit-Hartenberg and Geometrical methods are the forward kinematic algorithms used to generate data and train the neural network. The learning of forward-inverse mapping enables the inverse kinematic solution to be found. The algorithm is tested on hardware (SCORBOT-ER 4u) and reliable results are obtained. The modeling and simulations are done using MATLAB 8.0 software

    Indoor Mapping and Reconstruction with Mobile Augmented Reality Sensor Systems

    Get PDF
    Augmented Reality (AR) ermöglicht es, virtuelle, dreidimensionale Inhalte direkt innerhalb der realen Umgebung darzustellen. Anstatt jedoch beliebige virtuelle Objekte an einem willkürlichen Ort anzuzeigen, kann AR Technologie auch genutzt werden, um Geodaten in situ an jenem Ort darzustellen, auf den sich die Daten beziehen. Damit eröffnet AR die Möglichkeit, die reale Welt durch virtuelle, ortbezogene Informationen anzureichern. Im Rahmen der vorliegenen Arbeit wird diese Spielart von AR als "Fused Reality" definiert und eingehend diskutiert. Der praktische Mehrwert, den dieses Konzept der Fused Reality bietet, lässt sich gut am Beispiel seiner Anwendung im Zusammenhang mit digitalen Gebäudemodellen demonstrieren, wo sich gebäudespezifische Informationen - beispielsweise der Verlauf von Leitungen und Kabeln innerhalb der Wände - lagegerecht am realen Objekt darstellen lassen. Um das skizzierte Konzept einer Indoor Fused Reality Anwendung realisieren zu können, müssen einige grundlegende Bedingungen erfüllt sein. So kann ein bestimmtes Gebäude nur dann mit ortsbezogenen Informationen augmentiert werden, wenn von diesem Gebäude ein digitales Modell verfügbar ist. Zwar werden größere Bauprojekt heutzutage oft unter Zuhilfename von Building Information Modelling (BIM) geplant und durchgeführt, sodass ein digitales Modell direkt zusammen mit dem realen Gebäude ensteht, jedoch sind im Falle älterer Bestandsgebäude digitale Modelle meist nicht verfügbar. Ein digitales Modell eines bestehenden Gebäudes manuell zu erstellen, ist zwar möglich, jedoch mit großem Aufwand verbunden. Ist ein passendes Gebäudemodell vorhanden, muss ein AR Gerät außerdem in der Lage sein, die eigene Position und Orientierung im Gebäude relativ zu diesem Modell bestimmen zu können, um Augmentierungen lagegerecht anzeigen zu können. Im Rahmen dieser Arbeit werden diverse Aspekte der angesprochenen Problematik untersucht und diskutiert. Dabei werden zunächst verschiedene Möglichkeiten diskutiert, Indoor-Gebäudegeometrie mittels Sensorsystemen zu erfassen. Anschließend wird eine Untersuchung präsentiert, inwiefern moderne AR Geräte, die in der Regel ebenfalls über eine Vielzahl an Sensoren verfügen, ebenfalls geeignet sind, als Indoor-Mapping-Systeme eingesetzt zu werden. Die resultierenden Indoor Mapping Datensätze können daraufhin genutzt werden, um automatisiert Gebäudemodelle zu rekonstruieren. Zu diesem Zweck wird ein automatisiertes, voxel-basiertes Indoor-Rekonstruktionsverfahren vorgestellt. Dieses wird außerdem auf der Grundlage vierer zu diesem Zweck erfasster Datensätze mit zugehörigen Referenzdaten quantitativ evaluiert. Desweiteren werden verschiedene Möglichkeiten diskutiert, mobile AR Geräte innerhalb eines Gebäudes und des zugehörigen Gebäudemodells zu lokalisieren. In diesem Kontext wird außerdem auch die Evaluierung einer Marker-basierten Indoor-Lokalisierungsmethode präsentiert. Abschließend wird zudem ein neuer Ansatz, Indoor-Mapping Datensätze an den Achsen des Koordinatensystems auszurichten, vorgestellt

    Picturing the Invisible

    Get PDF
    Picturing the Invisible presents different disciplinary approaches to articulating the invisible, that which is not known or that which is not provable. The challenge that we have seen is how to articulate these concepts, not only to those within a particular academic field but beyond, to other disciplines and society at large. As our understanding of the complexity of the world grows incrementally, so does our realisation that issues and problems can rarely be resolved within neat demarcations. Therefore, the importance of finding means of communicating across disciplines and fields becomes a priority. Whilst acknowledging the essential importance of the specialist academic, the capacity to understand other disciplines, their priorities, methodologies and even the language used can become crucial in being an effective instrument for change. This book brings together insights from leading academics from a wide range of disciplines including Art and Design, Curatorial Practice, Literature, Forensic Science, Fashion, Medical Science, Psychoanalysis and Psychotherapy, Philosophy, Astrophysics and Architecture with a shared interest in exploring how, in each discipline, we strive to find expression for the invisible or unknown, and to draw out and articulate some of the explicit and tacit ways of communicating those concepts that transcends traditional disciplinary boundaries

    Picturing the Invisible: Exploring interdisciplinary synergies from the arts and the sciences

    Get PDF
    Picturing the Invisible presents different disciplinary approaches to articulating the invisible, that which is not known or that which is not provable. The challenge that we have seen is how to articulate these concepts, not only to those within a particular academic field but beyond, to other disciplines and society at large. As our understanding of the complexity of the world grows incrementally, so does our realisation that issues and problems can rarely be resolved within neat demarcations. Therefore, the importance of finding means of communicating across disciplines and fields becomes a priority. Whilst acknowledging the essential importance of the specialist academic, the capacity to understand other disciplines, their priorities, methodologies and even the language used can become crucial in being an effective instrument for change. This book brings together insights from leading academics from a wide range of disciplines including Art and Design, Curatorial Practice, Literature, Forensic Science, Medical Science, Psychoanalysis and Psychotherapy, Philosophy, Astrophysics and Architecture with a shared interest in exploring how, in each discipline, we strive to find expression for the invisible or unknown, and to draw out and articulate some of the explicit and tacit ways of communicating those concepts that transcend traditional disciplinary boundaries

    Le nuage de point intelligent

    Full text link
    Discrete spatial datasets known as point clouds often lay the groundwork for decision-making applications. E.g., we can use such data as a reference for autonomous cars and robot’s navigation, as a layer for floor-plan’s creation and building’s construction, as a digital asset for environment modelling and incident prediction... Applications are numerous, and potentially increasing if we consider point clouds as digital reality assets. Yet, this expansion faces technical limitations mainly from the lack of semantic information within point ensembles. Connecting knowledge sources is still a very manual and time-consuming process suffering from error-prone human interpretation. This highlights a strong need for domain-related data analysis to create a coherent and structured information. The thesis clearly tries to solve automation problematics in point cloud processing to create intelligent environments, i.e. virtual copies that can be used/integrated in fully autonomous reasoning services. We tackle point cloud questions associated with knowledge extraction – particularly segmentation and classification – structuration, visualisation and interaction with cognitive decision systems. We propose to connect both point cloud properties and formalized knowledge to rapidly extract pertinent information using domain-centered graphs. The dissertation delivers the concept of a Smart Point Cloud (SPC) Infrastructure which serves as an interoperable and modular architecture for a unified processing. It permits an easy integration to existing workflows and a multi-domain specialization through device knowledge, analytic knowledge or domain knowledge. Concepts, algorithms, code and materials are given to replicate findings and extend current applications.Les ensembles discrets de données spatiales, appelés nuages de points, forment souvent le support principal pour des scénarios d’aide à la décision. Par exemple, nous pouvons utiliser ces données comme référence pour les voitures autonomes et la navigation des robots, comme couche pour la création de plans et la construction de bâtiments, comme actif numérique pour la modélisation de l'environnement et la prédiction d’incidents... Les applications sont nombreuses et potentiellement croissantes si l'on considère les nuages de points comme des actifs de réalité numérique. Cependant, cette expansion se heurte à des limites techniques dues principalement au manque d'information sémantique au sein des ensembles de points. La création de liens avec des sources de connaissances est encore un processus très manuel, chronophage et lié à une interprétation humaine sujette à l'erreur. Cela met en évidence la nécessité d'une analyse automatisée des données relatives au domaine étudié afin de créer une information cohérente et structurée. La thèse tente clairement de résoudre les problèmes d'automatisation dans le traitement des nuages de points pour créer des environnements intelligents, c'est-àdire des copies virtuelles qui peuvent être utilisées/intégrées dans des services de raisonnement totalement autonomes. Nous abordons plusieurs problématiques liées aux nuages de points et associées à l'extraction des connaissances - en particulier la segmentation et la classification - la structuration, la visualisation et l'interaction avec les systèmes cognitifs de décision. Nous proposons de relier à la fois les propriétés des nuages de points et les connaissances formalisées pour extraire rapidement les informations pertinentes à l'aide de graphes centrés sur le domaine. La dissertation propose le concept d'une infrastructure SPC (Smart Point Cloud) qui sert d'architecture interopérable et modulaire pour un traitement unifié. Elle permet une intégration facile aux flux de travail existants et une spécialisation multidomaine grâce aux connaissances liée aux capteurs, aux connaissances analytiques ou aux connaissances de domaine. Plusieurs concepts, algorithmes, codes et supports sont fournis pour reproduire les résultats et étendre les applications actuelles.Diskrete räumliche Datensätze, so genannte Punktwolken, bilden oft die Grundlage für Entscheidungsanwendungen. Beispielsweise können wir solche Daten als Referenz für autonome Autos und Roboternavigation, als Ebene für die Erstellung von Grundrissen und Gebäudekonstruktionen, als digitales Gut für die Umgebungsmodellierung und Ereignisprognose verwenden... Die Anwendungen sind zahlreich und nehmen potenziell zu, wenn wir Punktwolken als Digital Reality Assets betrachten. Allerdings stößt diese Erweiterung vor allem durch den Mangel an semantischen Informationen innerhalb von Punkt-Ensembles auf technische Grenzen. Die Verbindung von Wissensquellen ist immer noch ein sehr manueller und zeitaufwendiger Prozess, der unter fehleranfälliger menschlicher Interpretation leidet. Dies verdeutlicht den starken Bedarf an domänenbezogenen Datenanalysen, um eine kohärente und strukturierte Information zu schaffen. Die Arbeit versucht eindeutig, Automatisierungsprobleme in der Punktwolkenverarbeitung zu lösen, um intelligente Umgebungen zu schaffen, d.h. virtuelle Kopien, die in vollständig autonome Argumentationsdienste verwendet/integriert werden können. Wir befassen uns mit Punktwolkenfragen im Zusammenhang mit der Wissensextraktion - insbesondere Segmentierung und Klassifizierung - Strukturierung, Visualisierung und Interaktion mit kognitiven Entscheidungssystemen. Wir schlagen vor, sowohl Punktwolkeneigenschaften als auch formalisiertes Wissen zu verbinden, um schnell relevante Informationen mithilfe von domänenzentrierten Grafiken zu extrahieren. Die Dissertation liefert das Konzept einer Smart Point Cloud (SPC) Infrastruktur, die als interoperable und modulare Architektur für eine einheitliche Verarbeitung dient. Es ermöglicht eine einfache Integration in bestehende Workflows und eine multidimensionale Spezialisierung durch Gerätewissen, analytisches Wissen oder Domänenwissen. Konzepte, Algorithmen, Code und Materialien werden zur Verfügung gestellt, um Erkenntnisse zu replizieren und aktuelle Anwendungen zu erweitern
    corecore