3 research outputs found

    Probabilistische Methoden fĂŒr die Roboter-Navigation am Beispiel eines autonomen Shopping-Assistenten

    Get PDF
    Abstract Autonomous navigation, in addition to interaction, is a basic ability for the operation of a mobile service robot. Here, important subskills are selfocalization, path planning, and motion control with collision avoidance. A further pre-condition for many navigation tasks ist the generation of an environment model from sensor observationa, often in combination with autonomous exploration. In this thesis, these challenges are considered in the context of the development of an interactive mobile shopping guide, which is able to provide information about the shop's products to customers of a home improvement store and guide them to the respective location. The focus of this work lies on the initial environment mapping. A method for Simultaneous Localization and Mapping (SLAM) has been developed, which in contrast to other comparable approaches does not assume the use of high-precision laser range scanners. Instead, sonar range sensors are used mainly, which feature an inferior spatial resolution and increased measurement noise. The resulting Map-Match-SLAM algorithm is based on the well known Rao-Blackwellized Particle Filter (RBPF), in combination with local maps for representation of most recent observations and and a map matching function for comparison of local and global maps. By adding a memory-effcient global map representation and dynamic adaption of the number of particles, online mapping is possible even under high state uncertainty resulting from the sensor characteristics. The use of local maps for representation of the observations and the sensor-independent weighting function make Map-Match-SLAM applicable for a wide range of different sensors. This has been demonstrated by mapping with a stereo camera and with a single camera, in combination with a depth-from-motion algorithm for pre-processing. Furthermore, a SLAM assistant has been developed, which is generating direction hints for the human operator during the mapping phase, in order to ensure a route that enables optimal operation of the SLAM algorithm. The assistant represents an intermediate step between purely manual mapping and completely autonomous exploration. A second main part of the work presented here are methods for the autonomous operation of the robot. For selflocalization, a map matching approach with local maps is used, similar to the proposed SLAM algorithm. Improvements of robustness and precision are achieved in combination with an existing visual localization approach which is using omnidirectional camera images. Path planning is done by the utilization of standard graph search algorithms. To that purpose, the grid cells of the global map are regarded as graph nodes. Comparitive analysis is presented for search algorithms with and without heuristics (A*/Dijkstra algorithm), for the specifcs of typical operation areas. Two different algorithms have been developed for motion control and collision avoidance: A reactive method, which is an enhancement of the existing Vector Field Histogram (VFH) approach, is experimentally compared with a new anticipative method based on sampling and stochastic search in the trajectory space. All the developed methods are employed on a team of shopping robots, which have been in permanent public test operation in a home improvement store for six months currently. The description of navigation methods is complemented by an overview of further software componentsof the robots, e.g. for Human-Robot-Interaction, and a detailed description of the control architecture for coordination of the subsystems. Analysis of long term test operation proves that all the applied methods are suitable for real world applications and that the robot is accepted and regarded as a valuable service by the customers.Die autonome Navigation stellt neben der InteraktionsfĂ€higkeit eine Grundlage fĂŒr die Funktion eines mobilen Serviceroboters dar. Wichtige Teilleistungen sind dabei die Selbstlokalisation, die Pfadplanung und die Bewegungssteuerung unter Vermeidung von Kollisionen. Eine Voraussetzung fĂŒr viele Navigationsaufgaben ist zudem die Erstellung eines Umgebungsmodells aus sensorischen Beobachtungen, unter UmstĂ€nden in Verbindung mit einer selbstĂ€ndigen Exploration. Diese Teilprobleme wurden in der vorgelegten Arbeit vor dem Hintergrund der Entwicklung eines interaktiven mobilen Shopping-Lotsen bearbeitet, welcher Kunden eines Baumarktes Informationen zu Produkten zur VerfĂŒgung stellen und sie auf Wunsch zum Standort der gesuchten Waren fĂŒhren kann. Den methodischen Kern der Arbeit bildet die initiale Umgebungskartierung. DafĂŒr wurde ein Verfahren zum Simultaneous Localization and Mapping (SLAM) entwickelt, welches im Gegensatz zu vergleichbaren AnsĂ€tzen nicht auf den Einsatz hochgenauer Laser-Range-Scanner ausgerichtet ist. Stattdessen wurden hauptsĂ€chlich Sonar-Sensoren benutzt, die sich durch eine wesentlich geringere rĂ€umliche Auflösung und höhere Messunsicherheit auszeichnen. Der entwickelte Map-Match-SLAM-Algorithmus beruht auf dem bekannten Rao-Blackwellized Particle Filter (RBPF), welcher mit einer lokalen Karte zur ReprĂ€sentation der aktuellen Umgebungsbeobachtungen sowie einer Map-Matching-Methode zum Vergleich der lokalen und globalen Karte kombiniert wurde. Durch eine speichereffiziente Darstellung der globalen Karte und dynamische Adaption der Partikel-Anzahl ist trotz der aus den sensorischen BeschrĂ€nkungen resultierenden großen Zustandsunsicherheit die Online-Kartierung möglich. Durch die Transformation der Beobachtungen in eine lokale Karte und die sensorunabhĂ€ngige Bewertungsfunktion ist das Map-Match-SLAMVerfahren fĂŒr ein breites Spektrum unterschiedlicher Sensoren geeignet. Dies wurde exemplarisch durch die Kartierung unter Nutzung einer Stereo-Kamera-Anordnung und einer einfachen Kamera in Verbindung mit einem Depth-from-Motion-Verfahren gezeigt. Aufbauend auf dem Kartierungsalgorithmus wurde zudem ein SLAM-Assistent entwickelt, welcher wĂ€hrend der Kartierungsphase AktionsvorschlĂ€ge fĂŒr den menschlichen Bediener prĂ€sentiert, die eine optimale Funktion des SLAM-Algorithmus gewĂ€hrleisten. Der Assistent stellt damit eine Zwischenstufe zwischen rein manueller Steuerung und komplett autonomer Exploration dar. Einen weiteren Schwerpunkt der Arbeit stellen die Verfahren fĂŒr die autonome Funktion des Roboters dar. FĂŒr die Selbstlokalisation wird ebenso wie beim SLAM ein Map Matching mit lokalen Karten eingesetzt. Eine Verbesserung der Robustheit und Genauigkeit wird durch die Kombination dieses Ansatzes mit einem vorhandenen visuellen Selbstlokalisations-Verfahren auf Basis einer omnidirektionalen Kamera erzielt. FĂŒr die Bestimmung des optimalen Pfades zu einem Zielpunkt kommen Standard-Algorithmen zur Pfadsuche in Graphen zum Einsatz, die Zellen der Karte werden dazu als Graphknoten interpretiert. Die Arbeit prĂ€sentiert vergleichende Untersuchungen zur Effizienz von Algorithmen mit und ohne Suchheuristik (A*/Dijkstra-Algorithmus) in der konkreten Einsatzumgebung. FĂŒr die Bewegungssteuerung und Kollisionsvermeidung wurden zwei verschiedene Algorithmen entwickelt: Einem reaktiven Verfahren, welches eine Weiterentwicklung des bekannten Vector Field Histogram (VFH) darstellt, wird ein neues antizipatives Verfahren auf Basis von Sampling und stochastischer Suche im Raum der möglichen Bewegungstrajektorien gegenĂŒber gestellt und experimentell verglichen. Die entwickelten Methoden kommen auf mehreren Shopping-Robotern zum Einsatz, die sich seit ca. sechs Monaten im dauerhaften öffentlichen Testbetrieb in einem Baumarkt befinden. Neben den Navigationsmethoden gibt die Arbeit einen Überblick ĂŒber die weiteren Module des Roboters, z.B. fĂŒr die Nutzer-Interaktion, und beschreibt detailliert die Steuerarchitektur zur Koordinierung der Teilleistungen. Die Eignung aller eingesetzten Methoden fĂŒr den Einsatz in einer realen Anwendung und die hohe Akzeptanz der Nutzer fĂŒr das entwickelte Gesamtsystem werden durch die Auswertung von Langzeittests nachgewiesen

    Geometrische und stochastische Modelle zur Verarbeitung von 3D-Kameradaten am Beispiel menschlicher Bewegungsanalysen

    Get PDF
    Die dreidimensionale Erfassung der Form und Lage eines beliebigen Objekts durch die flexiblen Methoden und Verfahren der Photogrammetrie spielt fĂŒr ein breites Spektrum technisch-industrieller und naturwissenschaftlicher Einsatzgebiete eine große Rolle. Die Anwendungsmöglichkeiten reichen von Messaufgaben im Automobil-, Maschinen- und Schiffbau ĂŒber die Erstellung komplexer 3D-Modelle in Architektur, ArchĂ€ologie und Denkmalpflege bis hin zu Bewegungsanalysen in Bereichen der Strömungsmesstechnik, Ballistik oder Medizin. In der Nahbereichsphotogrammetrie werden dabei verschiedene optische 3D-Messsysteme verwendet. Neben flĂ€chenhaften Halbleiterkameras im Einzel- oder Mehrbildverband kommen aktive Triangulationsverfahren zur OberflĂ€chenmessung mit z.B. strukturiertem Licht oder Laserscanner-Systeme zum Einsatz. 3D-Kameras auf der Basis von Photomischdetektoren oder vergleichbaren Prinzipien erzeugen durch die Anwendung von Modulationstechniken zusĂ€tzlich zu einem Grauwertbild simultan ein Entfernungsbild. Als Einzelbildsensoren liefern sie ohne die Notwendigkeit einer stereoskopischen Zuordnung rĂ€umlich aufgelöste OberflĂ€chendaten in Videorate. In der 3D-Bewegungsanalyse ergeben sich bezĂŒglich der KomplexitĂ€t und des Rechenaufwands erhebliche Erleichterungen. 3D-Kameras verbinden die Handlichkeit einer Digitalkamera mit dem Potential der dreidimensionalen Datenakquisition etablierter OberflĂ€chenmesssysteme. Sie stellen trotz der noch vergleichsweise geringen rĂ€umlichen Auflösung als monosensorielles System zur Echtzeit-Tiefenbildakquisition eine interessante Alternative fĂŒr Aufgabenstellungen der 3D-Bewegungsanalyse dar. Der Einsatz einer 3D-Kamera als Messinstrument verlangt die Modellierung von Abweichungen zum idealen Abbildungsmodell; die Verarbeitung der erzeugten 3D-Kameradaten bedingt die zielgerichtete Adaption, Weiter- und Neuentwicklung von Verfahren der Computer Vision und Photogrammetrie. Am Beispiel der Untersuchung des zwischenmenschlichen Bewegungsverhaltens sind folglich die Entwicklung von Verfahren zur Sensorkalibrierung und zur 3D-Bewegungsanalyse die Schwerpunkte der Dissertation. Eine 3D-Kamera stellt aufgrund ihres inhĂ€renten Designs und Messprinzips gleichzeitig Amplituden- und Entfernungsinformationen zur VerfĂŒgung, welche aus einem Messsignal rekonstruiert werden. Die simultane Einbeziehung aller 3D-Kamerainformationen in jeweils einen integrierten Ansatz ist eine logische Konsequenz und steht im Vordergrund der Verfahrensentwicklungen. Zum einen stĂŒtzen sich die komplementĂ€ren Eigenschaften der Beobachtungen durch die Herstellung des funktionalen Zusammenhangs der MesskanĂ€le gegenseitig, wodurch Genauigkeits- und ZuverlĂ€ssigkeitssteigerungen zu erwarten sind. Zum anderen gewĂ€hrleistet das um eine VarianzkomponentenschĂ€tzung erweiterte stochastische Modell eine vollstĂ€ndige Ausnutzung des heterogenen Informationshaushalts. Die entwickelte integrierte BĂŒndelblockausgleichung ermöglicht die Bestimmung der exakten 3D-Kamerageometrie sowie die SchĂ€tzung der distanzmessspezifischen Korrekturparameter zur Modellierung linearer, zyklischer und signalwegeffektbedingter Fehleranteile einer 3D-Kamerastreckenmessung. Die integrierte Kalibrierroutine gleicht in beiden InformationskanĂ€len gemessene GrĂ¶ĂŸen gemeinsam, unter der automatischen SchĂ€tzung optimaler Beobachtungsgewichte, aus. Die Methode basiert auf dem flexiblen Prinzip einer Selbstkalibrierung und benötigt keine Objektrauminformation, wodurch insbesondere die aufwendige Ermittlung von Referenzstrecken ĂŒbergeordneter Genauigkeit entfĂ€llt. Die durchgefĂŒhrten Genauigkeitsuntersuchungen bestĂ€tigen die Richtigkeit der aufgestellten funktionalen ZusammenhĂ€nge, zeigen aber auch SchwĂ€chen aufgrund noch nicht parametrisierter distanzmessspezifischer Fehler. Die AdaptivitĂ€t und die modulare Implementierung des entwickelten mathematischen Modells gewĂ€hrleisten aber eine zukĂŒnftige Erweiterung. Die QualitĂ€t der 3D-Neupunktkoordinaten kann nach einer Kalibrierung mit 5 mm angegeben werden. FĂŒr die durch eine Vielzahl von meist simultan auftretenden Rauschquellen beeinflusste Tiefenbildtechnologie ist diese Genauigkeitsangabe sehr vielversprechend, vor allem im Hinblick auf die Entwicklung von auf korrigierten 3D-Kameradaten aufbauenden Auswertealgorithmen. 2,5D Least Squares Tracking (LST) ist eine im Rahmen der Dissertation entwickelte integrierte spatiale und temporale Zuordnungsmethode zur Auswertung von 3D-Kamerabildsequenzen. Der Algorithmus basiert auf der in der Photogrammetrie bekannten Bildzuordnung nach der Methode der kleinsten Quadrate und bildet kleine OberflĂ€chensegmente konsekutiver 3D-KameradatensĂ€tze aufeinander ab. Die Abbildungsvorschrift wurde, aufbauend auf einer 2D-Affintransformation, an die Datenstruktur einer 3D-Kamera angepasst. Die geschlossen formulierte Parametrisierung verknĂŒpft sowohl Grau- als auch Entfernungswerte in einem integrierten Modell. Neben den affinen Parametern zur Erfassung von Translations- und Rotationseffekten, modellieren die Maßstabs- sowie Neigungsparameter perspektivbedingte GrĂ¶ĂŸenĂ€nderungen des Bildausschnitts, verursacht durch DistanzĂ€nderungen in Aufnahmerichtung. Die Eingabedaten sind in einem Vorverarbeitungsschritt mit Hilfe der entwickelten Kalibrierroutine um ihre opto- und distanzmessspezifischen Fehler korrigiert sowie die gemessenen SchrĂ€gstrecken auf Horizontaldistanzen reduziert worden. 2,5D-LST liefert als integrierter Ansatz vollstĂ€ndige 3D-Verschiebungsvektoren. Weiterhin können die aus der Fehlerrechnung resultierenden Genauigkeits- und ZuverlĂ€ssigkeitsangaben als Entscheidungskriterien fĂŒr die Integration in einer anwendungsspezifischen Verarbeitungskette Verwendung finden. Die Validierung des Verfahrens zeigte, dass die EinfĂŒhrung komplementĂ€rer Informationen eine genauere und zuverlĂ€ssigere Lösung des Korrespondenzproblems bringt, vor allem bei schwierigen KontrastverhĂ€ltnissen in einem Kanal. Die Genauigkeit der direkt mit den Distanzkorrekturtermen verknĂŒpften Maßstabs- und Neigungsparameter verbesserte sich deutlich. DarĂŒber hinaus brachte die Erweiterung des geometrischen Modells insbesondere bei der Zuordnung natĂŒrlicher, nicht gĂ€nzlich ebener OberflĂ€chensegmente signifikante Vorteile. Die entwickelte flĂ€chenbasierte Methode zur Objektzuordnung und Objektverfolgung arbeitet auf der Grundlage berĂŒhrungslos aufgenommener 3D-Kameradaten. Sie ist somit besonders fĂŒr Aufgabenstellungen der 3D-Bewegungsanalyse geeignet, die den Mehraufwand einer multiokularen Experimentalanordnung und die Notwendigkeit einer Objektsignalisierung mit Zielmarken vermeiden möchten. Das Potential des 3D-Kamerazuordnungsansatzes wurde an zwei Anwendungsszenarien der menschlichen Verhaltensforschung demonstriert. 2,5D-LST kam zur Bestimmung der interpersonalen Distanz und Körperorientierung im erziehungswissenschaftlichen Untersuchungsgebiet der Konfliktregulation befreundeter Kindespaare ebenso zum Einsatz wie zur Markierung und anschließenden Klassifizierung von Bewegungseinheiten sprachbegleitender Handgesten. Die Implementierung von 2,5D-LST in die vorgeschlagenen Verfahren ermöglichte eine automatische, effektive, objektive sowie zeitlich und rĂ€umlich hochaufgelöste Erhebung und Auswertung verhaltensrelevanter Daten. Die vorliegende Dissertation schlĂ€gt die Verwendung einer neuartigen 3D-Tiefenbildkamera zur Erhebung menschlicher Verhaltensdaten vor. Sie prĂ€sentiert sowohl ein zur Datenaufbereitung entwickeltes Kalibrierwerkzeug als auch eine Methode zur berĂŒhrungslosen Bestimmung dichter 3D-Bewegungsvektorfelder. Die Arbeit zeigt, dass die Methoden der Photogrammetrie auch fĂŒr bewegungsanalytische Aufgabenstellungen auf dem bisher noch wenig erschlossenen Gebiet der Verhaltensforschung wertvolle Ergebnisse liefern können. Damit leistet sie einen Beitrag fĂŒr die derzeitigen Bestrebungen in der automatisierten videographischen Erhebung von Körperbewegungen in dyadischen Interaktionen.The three-dimensional documentation of the form and location of any type of object using flexible photogrammetric methods and procedures plays a key role in a wide range of technical-industrial and scientific areas of application. Potential applications include measurement tasks in the automotive, machine building and ship building sectors, the compilation of complex 3D models in the fields of architecture, archaeology and monumental preservation and motion analyses in the fields of flow measurement technology, ballistics and medicine. In the case of close-range photogrammetry a variety of optical 3D measurement systems are used. Area sensor cameras arranged in single or multi-image configurations are used besides active triangulation procedures for surface measurement (e.g. using structured light or laser scanner systems). The use of modulation techniques enables 3D cameras based on photomix detectors or similar principles to simultaneously produce both a grey value image and a range image. Functioning as single image sensors, they deliver spatially resolved surface data at video rate without the need for stereoscopic image matching. In the case of 3D motion analyses in particular, this leads to considerable reductions in complexity and computing time. 3D cameras combine the practicality of a digital camera with the 3D data acquisition potential of conventional surface measurement systems. Despite the relatively low spatial resolution currently achievable, as a monosensory real-time depth image acquisition system they represent an interesting alternative in the field of 3D motion analysis. The use of 3D cameras as measuring instruments requires the modelling of deviations from the ideal projection model, and indeed the processing of the 3D camera data generated requires the targeted adaptation, development and further development of procedures in the fields of computer graphics and photogrammetry. This Ph.D. thesis therefore focuses on the development of methods of sensor calibration and 3D motion analysis in the context of investigations into inter-human motion behaviour. As a result of its intrinsic design and measurement principle, a 3D camera simultaneously provides amplitude and range data reconstructed from a measurement signal. The simultaneous integration of all data obtained using a 3D camera into an integrated approach is a logical consequence and represents the focus of current procedural development. On the one hand, the complementary characteristics of the observations made support each other due to the creation of a functional context for the measurement channels, with is to be expected to lead to increases in accuracy and reliability. On the other, the expansion of the stochastic model to include variance component estimation ensures that the heterogeneous information pool is fully exploited. The integrated bundle adjustment developed facilitates the definition of precise 3D camera geometry and the estimation of range-measurement-specific correction parameters required for the modelling of the linear, cyclical and latency defectives of a distance measurement made using a 3D camera. The integrated calibration routine jointly adjusts appropriate dimensions across both information channels, and also automatically estimates optimum observation weights. The method is based on the same flexible principle used in self-calibration, does not require spatial object data and therefore foregoes the time-consuming determination of reference distances with superior accuracy. The accuracy analyses carried out confirm the correctness of the proposed functional contexts, but nevertheless exhibit weaknesses in the form of non-parameterized range-measurement-specific errors. This notwithstanding, the future expansion of the mathematical model developed is guaranteed due to its adaptivity and modular implementation. The accuracy of a new 3D point coordinate can be set at 5 mm further to calibration. In the case of depth imaging technology – which is influenced by a range of usually simultaneously occurring noise sources – this level of accuracy is very promising, especially in terms of the development of evaluation algorithms based on corrected 3D camera data. 2.5D Least Squares Tracking (LST) is an integrated spatial and temporal matching method developed within the framework of this Ph.D. thesis for the purpose of evaluating 3D camera image sequences. The algorithm is based on the least squares image matching method already established in photogrammetry, and maps small surface segments of consecutive 3D camera data sets on top of one another. The mapping rule has been adapted to the data structure of a 3D camera on the basis of a 2D affine transformation. The closed parameterization combines both grey values and range values in an integrated model. In addition to the affine parameters used to include translation and rotation effects, the scale and inclination parameters model perspective-related deviations caused by distance changes in the line of sight. A pre-processing phase sees the calibration routine developed used to correct optical and distance-related measurement specific errors in input data and measured slope distances reduced to horizontal distances. 2.5D LST is an integrated approach, and therefore delivers fully three-dimensional displacement vectors. In addition, the accuracy and reliability data generated by error calculation can be used as decision criteria for integration into an application-specific processing chain. Process validation showed that the integration of complementary data leads to a more accurate, reliable solution to the correspondence problem, especially in the case of difficult contrast ratios within a channel. The accuracy of scale and inclination parameters directly linked to distance correction terms improved dramatically. In addition, the expansion of the geometric model led to significant benefits, and in particular for the matching of natural, not entirely planar surface segments. The area-based object matching and object tracking method developed functions on the basis of 3D camera data gathered without object contact. It is therefore particularly suited to 3D motion analysis tasks in which the extra effort involved in multi-ocular experimental settings and the necessity of object signalling using target marks are to be avoided. The potential of the 3D camera matching approach has been demonstrated in two application scenarios in the field of research into human behaviour. As in the case of the use of 2.5D LST to mark and then classify hand gestures accompanying verbal communication, the implementation of 2.5D LST in the proposed procedures for the determination of interpersonal distance and body orientation within the framework of pedagogical research into conflict regulation between pairs of child-age friends facilitates the automatic, effective, objective and high-resolution (from both a temporal and spatial perspective) acquisition and evaluation of data with relevance to behaviour. This Ph.D. thesis proposes the use of a novel 3D range imaging camera to gather data on human behaviour, and presents both a calibration tool developed for data processing purposes and a method for the contact-free determination of dense 3D motion vector fields. It therefore makes a contribution to current efforts in the field of the automated videographic documentation of bodily motion within the framework of dyadic interaction, and shows that photogrammetric methods can also deliver valuable results within the framework of motion evaluation tasks in the as-yet relatively untapped field of behavioural research
    corecore