4 research outputs found

    FahrspurschĂ€tzung aus monokularen Bildfolgen fĂŒr innerstĂ€dtische Fahrerassistenzanwendungen

    Get PDF
    Die Lage der Fahrspur vor dem eigenen Fahrzeug ist eine elementare Basisinformation fĂŒr viele Assistenzfunktionen. Diese Arbeit behandelt die Frage, wie diese Information aus monokularen Bildfolgen innerstĂ€dtischer Verkehrsszenarien gewonnen werden kann. Aus grundlegenden Abbildungseigenschaften der Fahrspur wird ein modellbasierter SchĂ€tzer hergeleitet und anschließend im Versuchsfahrzeug realisiert. Anhand von Testfahrten wird die LeistungsfĂ€higkeit des Verfahrens gezeigt und bewertet

    Bildbasierte Selbstlokalisierung von Straßenfahrzeugen

    Get PDF
    Die zuverlĂ€ssige Bestimmung der eigenen Fahrzeugposition ist eine wichtige Voraussetzung fĂŒr viele moderne Fahrerassistenzsysteme. Als vielversprechende und kostengĂŒnstige Alternative zu satellitenbasierten Lokalisierungssystemen wird in dieser Arbeit ein Gesamtsystem zur bildbasierten Lokalisierung fĂŒr den Einsatz in Straßenfahrzeugen vorgestellt, welches durch den Abgleich der Bilder einer im Fahrzeug eingebauten Kamera mit Luftaufnahmen die Fahrzeugposition ermittelt

    Sichere Mensch-Roboter-Kooperation durch Auswertung von Bildfolgen

    Get PDF
    Eine Herausforderung ist die Integration von Sensoren in die Roboterzelle und die Implementierung der dazugehörigen Auswerteverfahren. Durch die Integration von Sensorsystemen soll es den Manipulatoren ermöglicht werden, weitestgehend autonom Probleme zu lösen. Ein wichtiger Trend in der Forschung und Entwicklung komplexer Robotersysteme liegt darin, eine zuverlÀssige kognitive Industrierobotik zu entwickeln. Diese Arbeit will dazu einen wichtigen Beitrag leisten

    Template-basierte Klassifikation planarer Gesten

    Get PDF
    Pervasion of mobile devices led to a growing interest in touch-based interactions. However, multi-touch input is still restricted to direct manipulations. In current applications, gestural commands - if used at all - are only exploiting single-touch. The underlying motive for the work at hand is the conviction that a realization of advanced interaction techniques requires handy tools for supporting their interpretation. Barriers for own implementations of procedures are dismantled by providing proof of concept regarding manifold interactions, therefore, making benefits calculable to developers. Within this thesis, a recognition routine for planar, symbolic gestures is developed that can be trained by specifications of templates and does not imply restrictions to the versatility of input. To provide a flexible tool, the interpretation of a gesture is independent of its natural variances, i.e., translation, scale, rotation, and speed. Additionally, the essential number of specified templates per class is required to be small and classifications are subject to real-time criteria common in the context of typical user interactions. The gesture recognizer is based on the integration of a nearest neighbor approach into a Bayesian classification method. Gestures are split into meaningful, elementary tokens to retrieve a set of local features that are merged by a sensor fusion process to form a global maximum-likelihood representation. Flexibility and high accuracy of the approach is empirically proven in thorough tests. Retaining all requirements, the method is extended to support the prediction of partially entered gestures. Besides more efficient input, the possible specification of direct manipulation interactions by templates is beneficial. Suitability for practical use of all provided concepts is demonstrated on the basis of two applications developed for this purpose and providing versatile options of multi-finger input. In addition to a trainable recognizer for domain-independent sketches, a multi-touch text input system is created and tested with users. It is established that multi-touch input is utilized in sketching if it is available as an alternative. Furthermore, a constructed multi-touch gesture alphabet allows for more efficient text input in comparison to its single-touch pendant. The concepts presented in this work can be of equal benefit to UI designers, usability experts, and developers of feedforward-mechanisms for dynamic training methods of gestural interactions. Likewise, a decomposition of input into tokens and its interpretation by a maximum-likelihood matching with templates is transferable to other application areas as the offline recognition of symbols.Obwohl berĂŒhrungsbasierte Interaktionen mit dem Aufkommen mobiler GerĂ€te zunehmend Verbreitung fanden, beschrĂ€nken sich Multi-Touch Eingaben grĂ¶ĂŸtenteils auf direkte Manipulationen. Im Bereich gestischer Kommandos finden, wenn ĂŒberhaupt, nur Single-Touch Symbole Anwendung. Der vorliegenden Arbeit liegt der Gedanke zugrunde, dass die Umsetzung von Interaktionstechniken mit der VerfĂŒgbarkeit einfach zu handhabender Werkzeuge fĂŒr deren Interpretation zusammenhĂ€ngt. Auch kann die HĂŒrde, eigene Techniken zu implementieren, verringert werden, wenn vielfĂ€ltige Interaktionen erprobt sind und ihr Nutzen fĂŒr Anwendungsentwickler abschĂ€tzbar wird. In der verfassten Dissertation wird ein Erkenner fĂŒr planare, symbolische Gesten entwickelt, der ĂŒber die Angabe von Templates trainiert werden kann und keine BeschrĂ€nkung der Vielfalt von Eingaben auf berĂŒhrungsempfindlichen OberflĂ€chen voraussetzt. Um eine möglichst flexible Einsetzbarkeit zu gewĂ€hrleisten, soll die Interpretation einer Geste unabhĂ€ngig von natĂŒrlichen Varianzen - ihrer Translation, Skalierung, Rotation und Geschwindigkeit - und unter wenig spezifizierten Templates pro Klasse möglich sein. Weiterhin sind fĂŒr Nutzerinteraktionen im Anwendungskontext ĂŒbliche Echtzeit-Kriterien einzuhalten. Der vorgestellte Gestenerkenner basiert auf der Integration eines NĂ€chste-Nachbar-Verfahrens in einen Ansatz der Bayes\'schen Klassifikation. Gesten werden in elementare, bedeutungstragende Einheiten zerlegt, aus deren lokalen Merkmalen mittels eines Sensor-Fusion Prozesses eine Maximum-Likelihood-ReprĂ€sentation abgeleitet wird. Die FlexibilitĂ€t und hohe Genauigkeit des statistischen Verfahrens wird in ausfĂŒhrlichen Tests nachgewiesen. Unter gleichbleibenden Anforderungen wird eine Erweiterung vorgestellt, die eine PrĂ€diktion von Gesten bei partiellen Eingaben ermöglicht. Deren Nutzen liegt - neben effizienteren Eingaben - in der nachgewiesenen Möglichkeit, per Templates spezifizierte direkte Manipulationen zu interpretieren. Zur Demonstration der Praxistauglichkeit der prĂ€sentierten Konzepte werden exemplarisch zwei Anwendungen entwickelt und mit Nutzern getestet, die eine vielseitige Verwendung von Mehr-Finger-Eingaben vorsehen. Neben einem Erkenner trainierbarer, domĂ€nenunabhĂ€ngiger Skizzen wird ein System fĂŒr die Texteingabe mit den Fingern bereitgestellt. Anhand von Nutzerstudien wird gezeigt, dass Multi-Touch beim Skizzieren verwendet wird, wenn es als Alternative zur VerfĂŒgung steht und die Verwendung eines Multi-Touch Gestenalphabetes im Vergleich zur Texteingabe per Single-Touch effizienteres Schreiben zulĂ€sst. Von den vorgestellten Konzepten können UI-Designer, Usability-Experten und Entwickler von Feedforward-Mechanismen zum dynamischen Lehren gestischer Eingaben gleichermaßen profitieren. Die Zerlegung einer Eingabe in Token und ihre Interpretation anhand der Zuordnung zu spezifizierten Templates lĂ€sst sich weiterhin auf benachbarte Gebiete, etwa die Offline-Erkennung von Symbolen, ĂŒbertragen
    corecore