7 research outputs found

    Automatische auflösungsabhängige Anpassung von Bildanalyse-Objektmodellen am Beispiel Straßen

    Get PDF
    [no abstract

    Ansichtsbasierte 6 DoF Objekterkennung mit lokalen kovarianten Regionen

    Get PDF
    Diese Arbeit präsentiert einen neuen Ansatz zur Detektion und Lokalisation von Objekten, welcher die lokale Deformation korrespondierender, kovarianter Regionen nutzt, um die 6 Freiheitsgrade (DoF) einer Starrkörpertransformation zwischen einer Menge registrierter Modell- und Kameraansichten zu schätzen. Dazu werden Algorithmen entworfen, die es erlauben, aus jeder einzelnen Regionenkorrespondenz eine unabhängige 6 DoF Lagehypothese abzuleiten, falls die Oberflächennormale und Tiefe eines Regionenzentrums bekannt ist. Cluster dieser lokalen Hypothesen werden als grobe Lokalisierung und robuste Segmentierung bzw. Ausreißereliminierung für eine nachfolgende globale Lageerkennung genutzt. Dieses Vorgehen erlaubt eine integrierte Verarbeitung aller vorhandener Modell- und Kameraansichten und erlaubt die Fusion unterschiedlicher kovarianter Regionentypen, inkl. Regionen auf Basis von Tiefenbildern. Die nachfolgende Auswertung ermittelt die 6 DoF Objektlage, welche am besten den 2D-3D oder 3D-3D Korrespondenzen der Regionenzentren innerhalb eines Clusters entspricht. Die Kombination von lokaler und globaler Auswertung erlaubt selbst bei starken Beleuchtungsstörungen, großen Blickwinkeländerungen, Verdeckungen, Mehrdeutigkeiten und komplexen Szenen eine akkurate und robuste Lokalisation. Dies wurde anhand 6 Bauteilen und ausführlichen Experimenten verifiziert, wobei Genauigkeiten der Lage unter 1mm und 1° erreicht werden konnten. Nahezu alle Algorithmen sind fein granular parallelisierbar und ermöglichen daher eine Auswertezeit auf moderner Hardware unter 0.4s. Das Einlernen eines Objektmodells erfolgt mit Hilfe eines Industrieroboters und einer darauf montierten Stereokamera vollständig autonom

    Modellbasierte Lokalisation und Verfolgung für sichtsystemgestützte Regelungen [online]

    Get PDF

    Methoden der vision-basierten Nutzerwahrnehmung für eine natürliche Interaktion mit mobilen Servicrobotern

    Get PDF
    Methods of vision-based User Perception for a natural Interaction with mobile Service Robots In man-machine communication, particularly in the field of service robotics, the perception of the user is often constricted to people detection and tracking. This is in strong contrast to communication between people, where social information like gender, age, identity and facial expression is essential. The assumption of this thesis is that an improved perception of the user's state is necessary for future service robots to be successfully deployed in human centered service tasks. The example application is a service robot helping customers in a home store to find the desired products. During interaction, the robot should show a certain degree of social competence, e.g. by detecting persons and establishing and keeping eye contact. Furthermore, it should be able to build user models, identify known users robustly and estimate their affections by determining gender, age, identity and facial expression from video images. To realize this functionality, a biologically motivated separation into a peripheral and a foveal vision system is proposed. The former uses images of an omnidirectional camera with a large field of view but relatively low resolution to generate hypotheses of the position of potential users in the surroundings of the robot. Therefore, skin color and movement as well as the measurements of sonar sensors are integrated into a saliency map. Salient structures are tracked by a multi target tracking system based on the CONDENSATION algorithm. To realize a skin color detection which is insensitive to changes of the illumination chrominance, an automatic white balance algorithm was developed which takes advantage of the special geometry of the omnidirectional objective. After selecting a hypothesis, the head of the robot is continously directed in its direction. In this way, the user receives a feedback signal of the robots attention, while the robot is able to capture high resolution images of the users face suitable for a further two step analysis. The first step produces a normalized view of the users face by detecting the face and the eyes and applying affine image transformations. For the analysis itself, three methods were implemented and tested: Elastic Graph Matching, Independent Component Analysis and Active Appearance Models. With respect to the estimation of gender, age, facial expression and identity a comprehensive face image database was recorded for training and testing the different methods. The efficiency of the integrated system was demonstrated by empirical experiments.Methoden der vision-basierten Nutzerwahrnehmung für eine natürliche Interaktion mit mobilen Servicerobotern Im Gegensatz zur zwischenmenschlichen Kommunikation, bei der die Beziehungsebene im Vergleich zur Sachebene den weitaus größeren Anteil einnimmt, wird diese bei der Mensch-Roboter-Interaktion bislang nur in Ansätzen berücksichtigt. Insbesondere die Nutzerwahrnehmung bleibt in der Regel auf eine reine Personendetektion oder ein einfaches Personen-Tracking beschränkt. Vor diesem Hintergrund wurde eine verbesserte Wahrnehmung des aktuellen Zustandes des Nutzers als Voraussetzung für eine Personalisierung des Dialogs als Zielstellung dieser Arbeit abgeleitet. Beim exemplarischen Anwendungsszenario handelt es sich um einen Shopping-Assistenten, der in einem Baumarkt den Kunden bei der Suche nach Produkten behilflich ist. Dieser sollte zumindest einen gewissen Grad an sozialer Kompetenz zeigen, indem er z.B. Personen in seiner Umgebung detektiert und während der Interaktion kontinuierlich Blickkontakt hält. Um Nutzermodelle erstellen, kurzzeitig verlorene Nutzer wiedererkennen und den Gemütszustand des Nutzers abschätzen zu können, sollen Geschlecht, Alter, Identität und Gesichtsausdruck des Nutzers aus einem Videobild ermittelt werden. Für die Realisierung dieser Aufgabe wurde eine biologisch motivierte Aufteilung in ein peripheres und ein foveales Vision-System vorgeschlagen. Das periphere System arbeitet auf den Bildern einer omnidirektionalen Kamera und verfügt damit über einen sehr großen Sichtbereich, aber nur eine vergleichsweise geringe Auflösung. In diesem System werden zunächst Hypothesen über die Position von Personen im Umfeld des Roboters gebildet. Dafür werden Hautfarbe, Bewegung und Entfernung in einer Auffälligkeitskarte integriert und auffällige Bildbereiche mittels eines Multi-Target-Trackers verfolgt. Für die omnidirektionale Kamera wurde ein automatischer Weißabgleich entwickelt, der die Hautfarbdetektion unempfindlich gegen Änderungen der Chrominanz der Beleuchtung macht. Nach Auswahl einer Nutzerhypothese wird der Kopf des Roboters kontinuierlich in die entsprechende Richtung ausgerichtet. Damit erhält der Nutzer zum einen eine Rückmeldung über die gerichtete Aufmerksamkeit des Roboters während der Interaktion. Zum anderen kann der Roboter hochaufgelöste Bilder der Person aufnehmen, so dass eine weitere nachfolgende Analyse ermöglicht wird. Diese ist wiederum in zwei Teilschritte unterteilt. Der erste Schritt besteht aus einer Detektion des Gesichtes und einer anschließenden Detektion der Augen, anhand derer eine normalisierte Darstellung des Gesichtes erzeugt wird. Für den Analyseschritt wurden das Elastic-Graph-Matching, die Independent Component Analysis und die Active-Appearance Models implementiert und vergleichend untersucht. Unter Berücksichtigung der Anforderungen einer Geschlechts-, Alters-, Mimik- und Identitätsschätzung wurde hierfür eine umfassende Gesichtsdatenbank zum Training und zum Test der Verfahren angelegt. Die Leistungsfähigkeit des Gesamtsystems wurde schließlich anhand von empirischen Experimenten demonstriert

    Methoden zur automatischen Unkrauterkennung für die Prozesssteuerung von Herbizidmaßnahmen

    Get PDF
      -kein Abstract-  -no abstract

    Methods of automatic weed detection for process control of herbicide treatments

    Get PDF
    Eine teilflächenspezifische Unkrautbekämpfung ermöglicht die Anwendung von Herbiziden zu reduzieren. Kenntnisse über die Unkrautarten und -dichte, sowie deren lokales Vorkommen werden benötigt. Eine manuelle Unkrauterfassung zeigt sich unwirtschaftlich, so dass automatisierte Systeme zur Erfassung in der landwirtschaftlichen Praxis benötigt werden. Ein Bilderkennungssystem ist für diese Aufgabe am besten geeignet. Zu dessen Entwicklung wurden Bilddaten von Unkrautarten über mehrere Jahre, auf Ackerschlägen und in Gewächshausversuchen, erfasst. Aus den Daten wurden Parameter zur Unkrauterkennung abgeleitet. Ein Teil der Arbeit befasst sich mit der Segmentierung der Unkrautpflanzen, die im Keimblattstadium vorliegen sollten. Vermehrt in fortgeschrittenen Entwicklungsstadien wurden Höheninformationen zur Trennung von überlappenden Pflanzen benötigt. Gängigen Verfahren waren im Sonnenlicht nicht praktikabel. Mit der Stereotriangulation wurde eine erfolgreiche Segmentierung gefunden. Danach wurden von Einzelpflanzen charakteristische Merkmale gewonnen. Mit Hilfe von Berechnung verschiedener Momente wurde die Lage der Pflanzen bestimmt. Pflanzen, die sich nicht ähnlich waren, ließen sich mit geometrischen Merkmalen bei Erkennungsraten von 70 – 80 % unterscheiden. Mit einem Verfahren, welches die Keimblätter in Sektionen einteilt, dann Winkel berechnet und diese Folge von einen Künstlichen Neuronalen Netz beurteilen lässt, lassen sich auch Keimblätter von Pflanzen, die sich sehr ähneln, differenzieren und es wurden Erkennungsraten von bis zu 92 % erzielt. Im weiter entwickelten Zustand der Pflanzen ließen sich die Pflanzen an Hand weiterer charakteristischer Merkmale (Graphenvergleich für Matricaria-Arten, Template Matchings für Galium aparine) erkennen. Die Anwendung des geeigneten Verfahrens wird durch ein wissensbasiertes System gesteuert. Die Auswirkungen verschiedener Erkennungsraten wurden an Hand von Raum-Zeit-Simulationen zur Populationsdynamik untersucht.Side-specific weed management make it possible to reduce herbicide application. Knowledge about weed species, -density and local occurrence is necessary. Manual capture of weed coverage is non-economical, automatic weed detection is required for agricultural usage. A system of image recognition is highly acceptable for this function. For the development images of weeds on agricultural area and in green house were collected over several years. Parameters for weed recognition were derived. One part of work was to segment plants in cotyledon stage. At more developed growth stages information about highness was used to segment overlapping plants. Standard procedures were not practicable at sunlight, so a triangulation method was used. After this, special characteristics of plants were extracted. By computing of moments positions of plants were extracted. Not very similar plants were differentiated by geometric features at a level between 70 to 80 percent. Dividing seed leafs into parts, calculating their angles and rating the results by an artificial neural network, differentiation of very similar plants could be done at a level of 92 percent. Plants in a more developed growth stage could be distinguished by other characteristics (comparison of graphs for Matricaria-species, Template Matching for Galium aparine). The choice of the right method is regulated by a knowledge-based system. The impact of different detection rates was proved by a space-time simulation about population dynamics in weeds

    Forum Bildverarbeitung

    Get PDF
    Bildverarbeitung spielt in vielen Bereichen der Technik zur schnellen und berührungslosen Datenerfassung eine Schlüsselrolle und hat sich in unterschiedlichen Anwendungen einen unverzichtbaren Platz erobert. Von besonderer Bedeutung ist dabei eine zielführende Verarbeitung der erfassten Bildsignale. Das "Forum Bildverarbeitung" greift diese hochaktuelle Entwicklung sowohl hinsichtlich der theoretischen Grundlagen, Beschreibungsansätze und Werkzeuge als auch relevanter Anwendungen auf
    corecore