18 research outputs found

    Literature Survey On Standalone Pumping Station For Agriculture Purpose Using Solar PV

    Get PDF
    The concept of the project is to utilize the abundant solar energy available, harness it for effective work output. Here we are trying to use solar energy to run the centrifugal pump for lifting the water from the well. This can be utilized for different purpose like irrigation for agriculture & nurseries, etc. Here we are collecting all information about which kind of constraints required for planning of standalone pumping station for agriculture purpose. In this paper we are finding out which are power electronics applications in renewable energy sources. This document will help all researcher to start work on Solar PV’s, irrigation using renewable energy , as well as for finding the power electronics application in renewable energy sources. DOI: 10.17762/ijritcc2321-8169.15036

    Tracking von Menschen und menschlichen ZustÀnden

    Get PDF
    Im Bereich der KameraĂŒberwachung von Menschen werden unterschiedliche Aspekte wichtig. Dazu gehört das Tracking von Menschen, wobei nicht nur die aktuelle Position wichtig ist. Das Trackingergebnis muss weiterverarbeitet werden, um RĂŒckschlĂŒsse auf den Zustand des Beobachteten zu ziehen, wie zum Beispiel die derzeitige LeistungsfĂ€higkeit oder die Emotion. Zur Beurteilung der LeistungsfĂ€higkeit von Probanden, muss ein Basiswert fĂŒr diesen vorliegen. FĂŒr die SchĂ€tzung des emotionalen Zustands muss der Gesichtsausdruck beobachtbar sein. Zur Auswertung von Bilddaten durch Menschen und Maschinen muss eine Registrierung der Bilddaten erfolgen. Am Beispiel von Beobachterversuchen zur Beurteilung von emissionshemmenden Materialien in Infrarotaufnahmen, wurde durch die direkte Projektion von GPS-Punkten in Bilddaten die SchĂ€tzung von Bild-zu-Bild Homographien verbessert. Das Tracking von Objekten im Video wurde zunĂ€chst am Beispiel eines Flugzeugs evaluiert. Feste Messstationen am Boden empfangen nicht informative Signale von einem Flugzeug. Der Sendezeitpunkt war unbekannt, nur der Empfangszeitpunkt lag vor. Durch die paarweise Subtraktion der Empfangszeiten ergeben sich sogenannte Time Differences of Arrival. Setzt man diese Zeitdifferenzen als Messungen in ein, um die aktuelle Position zu ermitteln, ergibt sich hierduch ein hyperbolischer Schnitt. Mit der direkten Verwendung der Empfangszeiten vereinfacht sich die Positionsbestimmung zu einem Kegelschnitt. In einem stochastischen Filter wurde der unbekannte Sendezeitpunkt simultan mit der Position geschĂ€tzt, wodurch eine robuste Ermittlung der Flugzeugposition erreicht werden konnte. FĂŒr die SchĂ€tzung des emotionalen Zustands des Menschen muss das Trackingergebnis mehr enthalten als die Position. Am Beispiel des Auges wurde von der Iris mit dem Tracking von ausgedehnten Objekten sowohl die Position, als auch Ausmaß und Form verfolgt. Hier wurde zunĂ€chst mit einem einfachen parametrischen Formmodell gearbeitet. Das Tracking ausgedehnter Objekte wurde im Anschluss fĂŒr die Verfolgung von Gesichtern angewendet. Da hier kein einfaches parametrisches Formmodell verwendet werden konnte, wurde auf ein 68 Punkte umfassendes Landmarkenmodell zurĂŒckgegriffen. Um einem Auseinanderdriften der Landmarken entgegenzuwirken, wurde eine nichtlineare Nebenbedingung eingefĂŒhrt. Mit dieser Nebenbedingung wird garantiert, dass die Landmarken die Form des Gesichts beibehalten. Dazu wird die SchĂ€tzung des Modells mit der vorher trainierten Hauptkomponentenanalyse transformiert und rĂŒcktransformiert, so dass Fehler durch eine Drift eliminiert werden. Hierdurch wird garantiert, dass das Gesicht in der erwarteten Form verbleibt und eine weitere Analyse des Gesichtsausdrucks vorgenommen werden kann. Anschließend geht es um die LeistungsfĂ€higkeit von Menschen. ZunĂ€chst wird darauf eingegangen, die Beobachtungsleistung zu evaluieren. In einer ersten Studie wird untersucht, ob ein Trainingseffekt fĂŒr Beobachter nachgewiesen werden kann. In Videos einer simulierten Menschenmenge, in der sich Avatare mit und ohne Rucksack ĂŒber einen Platz bewegen, mussten die Probanden die Avatare mit Rucksack finden und markieren. Mit Einzelbildern dieser Videos, in denen sich ausschließlich Avatare ohne und mit Rucksack befanden, wurden die Probanden trainiert. Durch Auswertung des Zustands vor dem Training und nach dem Training wurde versucht, einen Trainingseffekt nachzuweisen. Aufgrund einer sehr geringen Teilnehmerzahl konnte kein eindeutiger Trainingseffekt nachgewiesen werden. In einer zweiten Studie wurden die Probanden durch automatische Trackingsysteme unterstĂŒtzt. Hier ging es darum, herauszufinden, ob ein solches System als unterstĂŒtzend oder störend wahrgenommen wird. Unter der AusfĂŒhrung einer NebentĂ€tigkeit, in der ein zufĂ€llig erklingender akustischer Stimulus quittiert werden sollte, wurde die Arbeitslast der Probanden evaluiert. Bei einer moderaten Anzahl an Markierungen zeigt sich ein tendenziell positiver Effekt, der durch eine Erhöhung der Markierungsanzahl wieder aufgehoben wird. Im Anschluss liegt der Fokus der Arbeit auf der SchĂ€tzung des emotionalen Zustands aus dem Gesichtsausdruck des beobachteten Menschen. Das Problem der Ermittlung des emotionalen Gesichtsausdrucks wurde bereits vielfach mit dem Einsatz von tiefen, neuronalen Netzen gelöst. Aus diesem Grund konzentriert sich diese Arbeit auf den Einsatz von analytischen Merkmalen. Mit einem neuartigen Modell, das auf dem 68 Punkte umfassenden Landmarkenmodell basiert, wird anhand von Winkel- und GrĂ¶ĂŸenmerkmalen ein Merkmalsvektor generiert. Die Winkelmerkmale enthalten zum Beispiel den Öffnungswinkel der Augenlider. Als GrĂ¶ĂŸenmerkmale werden die AchsenverhĂ€ltnisse von Ellipsen verwendet, die anhand der Landmarken der Augen oder des Mundes geschĂ€tzt werden. Daraus ergibt sich ein 29 Einzelmerkmale beinhaltender Merkmalsvektor, der als \emph{Angle-and-Size-Feature Set} (ASF) bezeichnet wird. In Experimenten ergaben sich vergleichbare Ergebnisse zu aktuellen tiefen, neuronalen Netzarchitekturen. Abschließend befasst sich diese Arbeit mit der dynamischen Erweiterung der emotionalen GesichtsausdruckschĂ€tzung. In einem neuartigen Ansatz wird zunĂ€chst mit einem Gaußprozess eine Abbildung des ASF-Merkmals in den Valenz-Erregungs-Raum definiert. Diese zweidimensionale ReprĂ€sentation des aktuellen emotionalen Zustands wird dann als Systemzustand fĂŒr ein stochastisches Filter genutzt. Es wird eine Nebenbedingung definiert, die verhindert, dass der Systemzustand den Einheitskreis des Valenz-Erregungs-Raums verlĂ€sst. Dadurch wird eine unkontrollierte Drift des Zustands verhindert. Die dynamische Verfolgung des emotionalen Zustands konnte nicht mit dem Stand der Technik verglichen werden, da hier keine entsprechende Arbeit vorhanden war

    Stochastische modell-prÀdiktive Regelung nichtlinearer Systeme

    Get PDF
    Diese Arbeit behandelt neuartige Verfahren zur modell-prĂ€diktiven Regelung (MPC) nichtlinearer Systeme unter umfassender BerĂŒcksichtigung stochastischer Unsicherheiten. Bei dem hier vorgestellten Framework zur stochastischen nichtlinearen MPC (SNMPC) wird neben dem unsicheren Systemverhalten auch die ZugĂ€nglichkeit des zu regelnden Systemzustands explizit bei der StellgrĂ¶ĂŸenberechnung berĂŒcksichtigt. Die vorgestellten Verfahren werden anhand der Regelung miniaturisierter Laufroboter evaluiert

    Positionierungslösung fĂŒr StraĂĄenwalzen - Grundlage fĂŒr eine kontinuierliche QualitĂ€tskontrolle und Dokumentation der Verdichtungsarbeit im Asphaltbau [online]

    Get PDF
    Kurzfassung Es liegt nahe, im Baubetrieb computerunterstĂŒtzte Systeme fĂŒr die Steuerung, Überwachung und Dokumentation der BauausfĂŒhrung einzusetzen. Abgesehen von der Verbesserung des Arbeitsablaufes und der Arbeitsergebnisse ermöglichen es die Systeme, durch die Speicherung von Arbeits- und Prozeßdaten, die Baumethoden exakt mit QualitĂ€tsmerkmalen, sowie Erstellungs- und Folgekosten zu verknĂŒpfen. Eine betriebswirtschaftliche Analyse fĂŒr den gesamten Lebenszyklus eines Projektes wird möglich. Im Asphaltstraßenbau bietet sich die Verwendung computerunterstĂŒtzter Systeme vor allem wegen des Charakters der Verfahrenstechnik an; denn es ĂŒberwiegen sich wiederholende und klar definierbare Arbeitsschritte. Forschung und Industrie haben sich im letzten Jahrzehnt der Herausforderung gestellt und hochkomplexe Systeme fĂŒr die kontinuierliche Steuerung, Überwachung und Dokumentation der BauausfĂŒhrung im Straßenbau entwickelt, man spricht von Computer Integrated Road Construction (CIRC). Die aktuellen CIRC-Maschinensysteme realisieren die Zuordnung der Daten durch eine zwar robuste und prĂ€zise, aber auch kostenaufwendige Positionierung. Die hohen Kosten stehen bisher der Durchsetzung der Systeme in der Praxis entgegen. Eine möglichst einfache und kostengĂŒnstige Alternative zu bisherigen Positionierungslösungen wĂŒrde die Anwendung der CIRC-Maschinensysteme fördern. Die vorliegende Untersuchung erarbeitet eine kostengĂŒnstige Positionierungslösung fĂŒr den Walzeinsatz im Asphaltbau. Aus der wertenden Beschreibung der Verfahrenstechnik des Asphaltstraßenbaus (Kapitel 2) und der PrĂŒfungsmethoden, die zur Feststellung der QualitĂ€t der fertigen Leistung angewandt werden, wird die Forderung abgeleitet, die Verdichtungsarbeit durch eine gleichmĂ€ĂŸige Anzahl von Überfahrten auf der ArbeitsflĂ€che zu verbessern. Es lĂ€ĂŸt sich feststellen, daß die Anzahl der Überfahrten wĂ€hrend der Verdichtungsarbeit entscheidenden Einfluß auf die erzielte Verdichtung hat. Die erforderliche Anzahl an Überfahrten wird, wie die Untersuchung zeigt, in den Randbereichen zumeist unter- und in der Mitte des Verdichtungsbereiches regelmĂ€ĂŸig ĂŒberschritten. Daraus folgt die Notwendigkeit, die Verdichtungsarbeit bereits wĂ€hrend der Überfahrten kontinuierlich so zu ĂŒberwachen, daß sogleich Korrekturen der Fahrmuster und eine zuverlĂ€ssige Feststellung der je Bahn geleisteten Überfahrten möglich sind. Durch die flĂ€chendeckende Überwachung und deren Dokumentation ist es darĂŒber hinaus möglich, von punktuellen PrĂŒfungen der fertigen Leistung auf die gleichmĂ€ĂŸige Verdichtung der gesamten ArbeitsflĂ€che zu schließen. Aktuelle CIRC-Systeme fĂŒr Walzen im Asphaltstraßenbau gliedern sich in Aktive Systeme (Messung von BodenreaktionskrĂ€ften, mit oder ohne automatische Regelung der Parameter fĂŒr die Vibrationsverdichtung) und Passive Systeme (Visualisierung und Dokumentation der Verfahrbahnen, mit und ohne Wegeplanung). Passive Systeme sind dabei mit geringerem meßtechnischen Aufwand realisierbar und bieten, durch die flĂ€chige Darstellung der geleisteten Überfahrten, eine aussagekrĂ€ftige und zuverlĂ€ssige Kontrollmethode. Dabei verwenden die in Kapitel 3 vorgestellten CIRC-Maschinensysteme sehr teuere, aber hochgenaue RTK-GPS-EmpfĂ€nger als Basis der Positionierung. Diese erlauben Meßgenauigkeiten bis zu wenigen Zentimetern. Das Konzept eines Passiven Systems fĂŒr die Überwachung und Dokumentation der Verfahrbahnen einer Walze mit möglichst geringem meßtechnischen Aufwand wird in Kapitel 4 vorgestellt. Die minimalen Anforderungen an die erforderliche Meßgenauigkeit der Positionierung werden untersucht und festgelegt. Diese erlauben nun eine kostengĂŒnstigere Realisierung der Positionierung als bisher praktiziert. Es wird begrĂŒndet, daß die im Vergleich zu bisherigen Anforderungen geringere Meßgenauigkeit ohne Einfluß auf die LeistungsfĂ€higkeit und Anwendbarkeit des Systems der kontinuierlichen Kontrolle ist. FĂŒr die Positionierung bietet sich die Satellitennavigation an (Kapitel 5). Die Verwendung eines C/A-Code GPS-EmpfĂ€ngers erweist sich als kostengĂŒnstige Lösung und wird in zahlreichen statischen und kinematischen Versuchen untersucht. Dabei wird eine, den gesetzten Anforderungen entsprechende Meßgenauigkeit erreicht. Die Versuche zeigen eine Wiederholbarkeit. Von diesen Ergebnissen ausgehend, wird eine Positionierungslösung fĂŒr den Baubetrieb auf der Basis kostengĂŒnstiger GPS-EmpfĂ€nger vorgestellt (Kapitel 6). Um die fĂŒr den Baubetrieb erforderliche und ausreichende Sicherheit der Positionierung zu erreichen, werden zwei voneinander unabhĂ€ngige kostengĂŒnstige GPS-EmpfĂ€nger eingesetzt und mit einem Geschwindigkeitssensor kombiniert. Dabei wird eine Serie asynchroner Erweiterter Kalman-Filter genutzt, um redundante Messungen zu verarbeiten und zu einer globalen ZustandsschĂ€tzung zusammenzufĂŒhren. In zahlreichen Feldversuchen hat der Verfasser die neuartige, kostengĂŒnstige Positionierung fĂŒr Walzen untersucht. Sie wurde zuletzt bei umfangreichen Baustellentests wĂ€hrend des Forschungsprojektes OSYRIS im September 2002 in Schweden erfolgreich eingesetzt. Das in dieser Arbeit vorgestellte kostengĂŒnstige Positionierungssystem fĂŒr Asphaltwalzen wird zur Zeit durch die MOBA Mobile Automation AG, einen industriellen Partner des Forschungsprojektes OSYRIS, in ein CIRC-System fĂŒr Asphaltwalzen integriert. Die Vorstellung des Prototyps ist fĂŒr das FrĂŒhjahr 2004 geplant

    Binokulare EigenbewegungsschĂ€tzung fĂŒr Fahrerassistenzanwendungen

    Get PDF
    Driving can be dangerous. Humans become inattentive when performing a monotonous task like driving. Also the risk implied while multi-tasking, like using the cellular phone while driving, can break the concentration of the driver and increase the risk of accidents. Others factors like exhaustion, nervousness and excitement affect the performance of the driver and the response time. Consequently, car manufacturers have developed systems in the last decades which assist the driver under various circumstances. These systems are called driver assistance systems. Driver assistance systems are meant to support the task of driving, and the field of action varies from alerting the driver, with acoustical or optical warnings, to taking control of the car, such as keeping the vehicle in the traffic lane until the driver resumes control. For such a purpose, the vehicle is equipped with on-board sensors which allow the perception of the environment and/or the state of the vehicle. Cameras are sensors which extract useful information about the visual appearance of the environment. Additionally, a binocular system allows the extraction of 3D information. One of the main requirements for most camera-based driver assistance systems is the accurate knowledge of the motion of the vehicle. Some sources of information, like velocimeters and GPS, are of common use in vehicles today. Nevertheless, the resolution and accuracy usually achieved with these systems are not enough for many real-time applications. The computation of ego-motion from sequences of stereo images for the implementation of driving intelligent systems, like autonomous navigation or collision avoidance, constitutes the core of this thesis. This dissertation proposes a framework for the simultaneous computation of the 6 degrees of freedom of ego-motion (rotation and translation in 3D Euclidean space), the estimation of the scene structure and the detection and estimation of independently moving objects. The input is exclusively provided by a binocular system and the framework does not call for any data acquisition strategy, i.e. the stereo images are just processed as they are provided. Stereo allows one to establish correspondences between left and right images, estimating 3D points of the environment via triangulation. Likewise, feature tracking establishes correspondences between the images acquired at different time instances. When both are used together for a large number of points, the result is a set of clouds of 3D points with point-to-point correspondences between clouds. The apparent motion of the 3D points between consecutive frames is caused by a variety of reasons. The most dominant motion for most of the points in the clouds is caused by the ego-motion of the vehicle; as the vehicle moves and images are acquired, the relative position of the world points with respect to the vehicle changes. Motion is also caused by objects moving in the environment. They move independently of the vehicle motion, so the observed motion for these points is the sum of the ego-vehicle motion and the independent motion of the object. A third reason, and of paramount importance in vision applications, is caused by correspondence problems, i.e. the incorrect spatial or temporal assignment of the point-to-point correspondence. Furthermore, all the points in the clouds are actually noisy measurements of the real unknown 3D points of the environment. Solving ego-motion and scene structure from the clouds of points requires some previous analysis of the noise involved in the imaging process, and how it propagates as the data is processed. Therefore, this dissertation analyzes the noise properties of the 3D points obtained through stereo triangulation. This leads to the detection of a bias in the estimation of 3D position, which is corrected with a reformulation of the projection equation. Ego-motion is obtained by finding the rotation and translation between the two clouds of points. This problem is known as absolute orientation, and many solutions based on least squares have been proposed in the literature. This thesis reviews the available closed form solutions to the problem. The proposed framework is divided in three main blocks: 1) stereo and feature tracking computation, 2) ego-motion estimation and 3) estimation of 3D point position and 3D velocity. The first block solves the correspondence problem providing the clouds of points as output. No special implementation of this block is required in this thesis. The ego-motion block computes the motion of the cameras by finding the absolute orientation between the clouds of static points in the environment. Since the cloud of points might contain independently moving objects and outliers generated by false correspondences, the direct computation of the least squares might lead to an erroneous solution. The first contribution of this thesis is an effective rejection rule that detects outliers based on the distance between predicted and measured quantities, and reduces the effects of noisy measurement by assigning appropriate weights to the data. This method is called Smoothness Motion Constraint (SMC). The ego-motion of the camera between two frames is obtained finding the absolute orientation between consecutive clouds of weighted 3D points. The complete ego-motion since initialization is achieved concatenating the individual motion estimates. This leads to a super-linear propagation of the error, since noise is integrated. A second contribution of this dissertation is a predictor/corrector iterative method, which integrates the clouds of 3D points of multiple time instances for the computation of ego-motion. The presented method considerably reduces the accumulation of errors in the estimated ego-position of the camera. Another contribution of this dissertation is a method which recursively estimates the 3D world position of a point and its velocity; by fusing stereo, feature tracking and the estimated ego-motion in a Kalman Filter system. An improved estimation of point position is obtained this way, which is used in the subsequent system cycle resulting in an improved computation of ego-motion. The general contribution of this dissertation is a single framework for the real time computation of scene structure, independently moving objects and ego-motion for automotive applications.Autofahren kann gefĂ€hrlich sein. Die Fahrleistung wird durch die physischen und psychischen Grenzen des Fahrers und durch externe Faktoren wie das Wetter beeinflusst. Fahrerassistenzsysteme erhöhen den Fahrkomfort und unterstĂŒtzen den Fahrer, um die Anzahl an UnfĂ€llen zu verringern. Fahrerassistenzsysteme unterstĂŒtzen den Fahrer durch Warnungen mit optischen oder akustischen Signalen bis hin zur Übernahme der Kontrolle ĂŒber das Auto durch das System. Eine der Hauptvoraussetzungen fĂŒr die meisten Fahrerassistenzsysteme ist die akkurate Kenntnis der Bewegung des eigenen Fahrzeugs. Heutzutage verfĂŒgt man ĂŒber verschiedene Sensoren, um die Bewegung des Fahrzeugs zu messen, wie zum Beispiel GPS und Tachometer. Doch Auflösung und Genauigkeit dieser Systeme sind nicht ausreichend fĂŒr viele Echtzeitanwendungen. Die Berechnung der Eigenbewegung aus Stereobildsequenzen fĂŒr Fahrerassistenzsysteme, z.B. zur autonomen Navigation oder Kollisionsvermeidung, bildet den Kern dieser Arbeit. Diese Dissertation prĂ€sentiert ein System zur Echtzeitbewertung einer Szene, inklusive Detektion und Bewertung von unabhĂ€ngig bewegten Objekten sowie der akkuraten SchĂ€tzung der sechs Freiheitsgrade der Eigenbewegung. Diese grundlegenden Bestandteile sind erforderlich, um viele intelligente Automobilanwendungen zu entwickeln, die den Fahrer in unterschiedlichen Verkehrssituationen unterstĂŒtzen. Das System arbeitet ausschließlich mit einer Stereokameraplattform als Sensor. Um die Eigenbewegung und die Szenenstruktur zu berechnen wird eine Analyse des Rauschens und der Fehlerfortpflanzung im Bildaufbereitungsprozess benötigt. Deshalb werden in dieser Dissertation die Rauscheigenschaften der durch Stereotriangulation erhaltenen 3D-Punkte analysiert. Dies fĂŒhrt zu der Entdeckung eines systematischen Fehlers in der SchĂ€tzung der 3D-Position, der sich mit einer Neuformulierung der Projektionsgleichung korrigieren lĂ€sst. Die Simulationsergebnisse zeigen, dass eine bedeutende Verringerung des Fehlers in der geschĂ€tzten 3D-Punktposition möglich ist. Die EigenbewegungsschĂ€tzung wird gewonnen, indem die Rotation und Translation zwischen Punktwolken geschĂ€tzt wird. Dieses Problem ist als „absolute Orientierung” bekannt und viele Lösungen auf Basis der Methode der kleinsten Quadrate sind in der Literatur vorgeschlagen worden. Diese Arbeit rezensiert die verfĂŒgbaren geschlossenen Lösungen zu dem Problem. Das vorgestellte System gliedert sich in drei wesentliche Bausteine: 1. Registrierung von Bildmerkmalen, 2. EigenbewegungsschĂ€tzung und 3. iterative SchĂ€tzung von 3D-Position und 3D-Geschwindigkeit von Weltpunkten. Der erster Block erhĂ€lt eine Folge rektifizierter Bilder als Eingabe und liefert daraus eine Liste von verfolgten Bildmerkmalen mit ihrer entsprechenden 3D-Position. Der Block „EigenbewegungsschĂ€tzung” besteht aus vier Hauptschritten in einer Schleife: 1. Bewegungsvorhersage, 2. Anwendung der Glattheitsbedingung fĂŒr die Bewegung (GBB), 3. absolute Orientierungsberechnung und 4. Bewegungsintegration. Die in dieser Dissertation vorgeschlagene GBB ist eine mĂ€chtige Bedingung fĂŒr die Ablehnung von Ausreißern und fĂŒr die Zuordnung von Gewichten zu den gemessenen 3D-Punkten. Simulationen werden mit gaußschem und slashschem Rauschen ausgefĂŒhrt. Die Ergebnisse zeigen die Überlegenheit der GBB-Version ĂŒber die Standardgewichtungsmethoden. Die StabilitĂ€t der Ergebnisse hinsichtlich Ausreißern wurde analysiert mit dem Resultat, dass der „break down point” grĂ¶ĂŸer als 50% ist. Wenn die vier Schritte iterativ ausgefĂŒhrt, werden wird ein PrĂ€diktor-Korrektor-Verfahren gewonnen.Wir nennen diese SchĂ€tzung Multi-frameschĂ€tzung im Gegensatz zur ZweiframeschĂ€tzung, die nur die aktuellen und vorherigen Bildpaare fĂŒr die Berechnung der Eigenbewegung betrachtet. Die erste Iteration wird zwischen der aktuellen und vorherigen Wolke von Punkten durchgefĂŒhrt. Jede weitere Iteration integriert eine zusĂ€tzliche Punktwolke eines vorherigen Zeitpunkts. Diese Methode reduziert die Fehlerakkumulation bei der Integration von mehreren SchĂ€tzungen in einer einzigen globalen SchĂ€tzung. Simulationsergebnisse zeigen, dass obwohl der Fehler noch superlinear im Laufe der Zeit zunimmt, die GrĂ¶ĂŸe des Fehlers um mehrere GrĂ¶ĂŸenordnungen reduziert wird. Der dritte Block besteht aus der iterativen SchĂ€tzung von 3D-Position und 3D-Geschwindigkeit von Weltpunkten. Hier wird eine Methode basierend auf einem Kalman Filter verwendet, das Stereo, Featuretracking und Eigenbewegungsdaten fusioniert. Messungen der Position eines Weltpunkts werden durch das Stereokamerasystem gewonnen. Die Differenzierung der Position des geschĂ€tzten Punkts erlaubt die zusĂ€tzliche SchĂ€tzung seiner Geschwindigkeit. Die Messungen werden durch das Messmodell gewonnen, das Stereo- und Bewegungsdaten fusioniert. Simulationsergebnisse validieren das Modell. Die Verringerung der Positionsunsicherheit im Laufe der Zeit wird mit einer Monte-Carlo Simulation erzielt. Experimentelle Ergebnisse werden mit langen Sequenzen von Bildern erzielt. ZusĂ€tzliche Tests, einschließlich einer 3D-Rekonstruktion einer Waldszene und der Berechnung der freien Kamerabewegung in einem Indoor-Szenario, wurden durchgefĂŒhrt. Die Methode zeigt gute Ergebnisse in allen FĂ€llen. Der Algorithmus liefert zudem akzeptable Ergebnisse bei der SchĂ€tzung der Lage kleiner Objekte, wie Köpfe und Beine von realen Crash-Test-Dummies
    corecore