18 research outputs found
Literature Survey On Standalone Pumping Station For Agriculture Purpose Using Solar PV
The concept of the project is to utilize the abundant solar energy available, harness it for effective work output. Here we are trying to use solar energy to run the centrifugal pump for lifting the water from the well. This can be utilized for different purpose like irrigation for agriculture & nurseries, etc. Here we are collecting all information about which kind of constraints required for planning of standalone pumping station for agriculture purpose. In this paper we are finding out which are power electronics applications in renewable energy sources. This document will help all researcher to start work on Solar PVâs, irrigation using renewable energy , as well as for finding the power electronics application in renewable energy sources.
DOI: 10.17762/ijritcc2321-8169.15036
Tracking von Menschen und menschlichen ZustÀnden
Im Bereich der KameraĂŒberwachung von Menschen werden unterschiedliche Aspekte wichtig. Dazu gehört das Tracking von Menschen, wobei nicht nur die aktuelle Position wichtig ist. Das Trackingergebnis muss weiterverarbeitet werden, um RĂŒckschlĂŒsse auf den Zustand des Beobachteten zu ziehen, wie zum Beispiel die derzeitige LeistungsfĂ€higkeit oder die Emotion. Zur Beurteilung der LeistungsfĂ€higkeit von Probanden, muss ein Basiswert fĂŒr diesen vorliegen. FĂŒr die SchĂ€tzung des emotionalen Zustands muss der Gesichtsausdruck beobachtbar sein.
Zur Auswertung von Bilddaten durch Menschen und Maschinen muss eine Registrierung der Bilddaten erfolgen. Am Beispiel von Beobachterversuchen zur Beurteilung von emissionshemmenden Materialien in Infrarotaufnahmen, wurde durch die direkte Projektion von GPS-Punkten in Bilddaten die SchÀtzung von Bild-zu-Bild Homographien verbessert. Das Tracking von Objekten im Video wurde zunÀchst am Beispiel eines Flugzeugs evaluiert. Feste Messstationen am Boden empfangen nicht informative Signale von einem Flugzeug. Der Sendezeitpunkt war unbekannt, nur der Empfangszeitpunkt lag vor. Durch die paarweise Subtraktion der Empfangszeiten ergeben sich sogenannte Time Differences of Arrival. Setzt man diese Zeitdifferenzen als Messungen in ein, um die aktuelle Position zu ermitteln, ergibt sich hierduch ein hyperbolischer Schnitt. Mit der direkten Verwendung der Empfangszeiten vereinfacht sich die Positionsbestimmung zu einem Kegelschnitt. In einem stochastischen Filter wurde der unbekannte Sendezeitpunkt simultan mit der Position geschÀtzt, wodurch eine robuste Ermittlung der Flugzeugposition erreicht werden konnte.
FĂŒr die SchĂ€tzung des emotionalen Zustands des Menschen muss das Trackingergebnis mehr enthalten als die Position. Am Beispiel des Auges wurde von der Iris mit dem Tracking von ausgedehnten Objekten sowohl die Position, als auch AusmaĂ und Form verfolgt. Hier wurde zunĂ€chst mit einem einfachen parametrischen Formmodell gearbeitet. Das Tracking ausgedehnter Objekte wurde im Anschluss fĂŒr die Verfolgung von Gesichtern angewendet. Da hier kein einfaches parametrisches Formmodell verwendet werden konnte, wurde auf ein 68 Punkte umfassendes Landmarkenmodell zurĂŒckgegriffen. Um einem Auseinanderdriften der Landmarken entgegenzuwirken, wurde eine nichtlineare Nebenbedingung eingefĂŒhrt. Mit dieser Nebenbedingung wird garantiert, dass die Landmarken die Form des Gesichts beibehalten. Dazu wird die SchĂ€tzung des Modells mit der vorher trainierten Hauptkomponentenanalyse transformiert und rĂŒcktransformiert, so dass Fehler durch eine Drift eliminiert werden. Hierdurch wird garantiert, dass das Gesicht in der erwarteten Form verbleibt und eine weitere Analyse des Gesichtsausdrucks vorgenommen werden kann.
AnschlieĂend geht es um die LeistungsfĂ€higkeit von Menschen. ZunĂ€chst wird darauf eingegangen, die Beobachtungsleistung zu evaluieren. In einer ersten Studie wird untersucht, ob ein Trainingseffekt fĂŒr Beobachter nachgewiesen werden kann. In Videos einer simulierten Menschenmenge, in der sich Avatare mit und ohne Rucksack ĂŒber einen Platz bewegen, mussten die Probanden die Avatare mit Rucksack finden und markieren. Mit Einzelbildern dieser Videos, in denen sich ausschlieĂlich Avatare ohne und mit Rucksack befanden, wurden die Probanden trainiert. Durch Auswertung des Zustands vor dem Training und nach dem Training wurde versucht, einen Trainingseffekt nachzuweisen. Aufgrund einer sehr geringen Teilnehmerzahl konnte kein eindeutiger Trainingseffekt nachgewiesen werden. In einer zweiten Studie wurden die Probanden durch automatische Trackingsysteme unterstĂŒtzt. Hier ging es darum, herauszufinden, ob ein solches System als unterstĂŒtzend oder störend wahrgenommen wird. Unter der AusfĂŒhrung einer NebentĂ€tigkeit, in der ein zufĂ€llig erklingender akustischer Stimulus quittiert werden sollte, wurde die Arbeitslast der Probanden evaluiert. Bei einer moderaten Anzahl an Markierungen zeigt sich ein tendenziell positiver Effekt, der durch eine Erhöhung der Markierungsanzahl wieder aufgehoben wird.
Im Anschluss liegt der Fokus der Arbeit auf der SchĂ€tzung des emotionalen Zustands aus dem Gesichtsausdruck des beobachteten Menschen. Das Problem der Ermittlung des emotionalen Gesichtsausdrucks wurde bereits vielfach mit dem Einsatz von tiefen, neuronalen Netzen gelöst. Aus diesem Grund konzentriert sich diese Arbeit auf den Einsatz von analytischen Merkmalen. Mit einem neuartigen Modell, das auf dem 68 Punkte umfassenden Landmarkenmodell basiert, wird anhand von Winkel- und GröĂenmerkmalen ein Merkmalsvektor generiert. Die Winkelmerkmale enthalten zum Beispiel den Ăffnungswinkel der Augenlider. Als GröĂenmerkmale werden die AchsenverhĂ€ltnisse von Ellipsen verwendet, die anhand der Landmarken der Augen oder des Mundes geschĂ€tzt werden. Daraus ergibt sich ein 29 Einzelmerkmale beinhaltender Merkmalsvektor, der als \emph{Angle-and-Size-Feature Set} (ASF) bezeichnet wird. In Experimenten ergaben sich vergleichbare Ergebnisse zu aktuellen tiefen, neuronalen Netzarchitekturen.
AbschlieĂend befasst sich diese Arbeit mit der dynamischen Erweiterung der emotionalen GesichtsausdruckschĂ€tzung. In einem neuartigen Ansatz wird zunĂ€chst mit einem GauĂprozess eine Abbildung des ASF-Merkmals in den Valenz-Erregungs-Raum definiert. Diese zweidimensionale ReprĂ€sentation des aktuellen emotionalen Zustands wird dann als Systemzustand fĂŒr ein stochastisches Filter genutzt. Es wird eine Nebenbedingung definiert, die verhindert, dass der Systemzustand den Einheitskreis des Valenz-Erregungs-Raums verlĂ€sst. Dadurch wird eine unkontrollierte Drift des Zustands verhindert. Die dynamische Verfolgung des emotionalen Zustands konnte nicht mit dem Stand der Technik verglichen werden, da hier keine entsprechende Arbeit vorhanden war
Stochastische modell-prÀdiktive Regelung nichtlinearer Systeme
Diese Arbeit behandelt neuartige Verfahren zur modell-prĂ€diktiven Regelung (MPC) nichtlinearer Systeme unter umfassender BerĂŒcksichtigung stochastischer Unsicherheiten. Bei dem hier vorgestellten Framework zur stochastischen nichtlinearen MPC (SNMPC) wird neben dem unsicheren Systemverhalten auch die ZugĂ€nglichkeit des zu regelnden Systemzustands explizit bei der StellgröĂenberechnung berĂŒcksichtigt. Die vorgestellten Verfahren werden anhand der Regelung miniaturisierter Laufroboter evaluiert
Positionierungslösung fĂŒr StraĂĄenwalzen - Grundlage fĂŒr eine kontinuierliche QualitĂ€tskontrolle und Dokumentation der Verdichtungsarbeit im Asphaltbau [online]
Kurzfassung
Es liegt nahe, im Baubetrieb computerunterstĂŒtzte Systeme fĂŒr
die Steuerung, Ăberwachung und Dokumentation der BauausfĂŒhrung
einzusetzen. Abgesehen von der Verbesserung des Arbeitsablaufes
und der Arbeitsergebnisse ermöglichen es die Systeme, durch die
Speicherung von Arbeits- und ProzeĂdaten, die Baumethoden exakt
mit QualitÀtsmerkmalen, sowie Erstellungs- und Folgekosten zu
verknĂŒpfen. Eine betriebswirtschaftliche Analyse fĂŒr den
gesamten Lebenszyklus eines Projektes wird möglich.
Im AsphaltstraĂenbau bietet sich die Verwendung
computerunterstĂŒtzter Systeme vor allem wegen des Charakters der
Verfahrenstechnik an; denn es ĂŒberwiegen sich wiederholende und
klar definierbare Arbeitsschritte. Forschung und Industrie haben
sich im letzten Jahrzehnt der Herausforderung gestellt und
hochkomplexe Systeme fĂŒr die kontinuierliche Steuerung,
Ăberwachung und Dokumentation der BauausfĂŒhrung im StraĂenbau
entwickelt, man spricht von Computer Integrated Road
Construction (CIRC). Die aktuellen CIRC-Maschinensysteme
realisieren die Zuordnung der Daten durch eine zwar robuste und
prÀzise, aber auch kostenaufwendige Positionierung. Die hohen
Kosten stehen bisher der Durchsetzung der Systeme in der Praxis
entgegen. Eine möglichst einfache und kostengĂŒnstige Alternative
zu bisherigen Positionierungslösungen wĂŒrde die Anwendung der
CIRC-Maschinensysteme fördern. Die vorliegende Untersuchung
erarbeitet eine kostengĂŒnstige Positionierungslösung fĂŒr den
Walzeinsatz im Asphaltbau.
Aus der wertenden Beschreibung der Verfahrenstechnik des
AsphaltstraĂenbaus (Kapitel 2) und der PrĂŒfungsmethoden, die zur
Feststellung der QualitÀt der fertigen Leistung angewandt
werden, wird die Forderung abgeleitet, die Verdichtungsarbeit
durch eine gleichmĂ€Ăige Anzahl von Ăberfahrten auf der
ArbeitsflĂ€che zu verbessern. Es lĂ€Ăt sich feststellen, daĂ die
Anzahl der Ăberfahrten wĂ€hrend der Verdichtungsarbeit
entscheidenden EinfluĂ auf die erzielte Verdichtung hat. Die
erforderliche Anzahl an Ăberfahrten wird, wie die Untersuchung
zeigt, in den Randbereichen zumeist unter- und in der Mitte des
Verdichtungsbereiches regelmĂ€Ăig ĂŒberschritten. Daraus folgt die
Notwendigkeit, die Verdichtungsarbeit bereits wÀhrend der
Ăberfahrten kontinuierlich so zu ĂŒberwachen, daĂ sogleich
Korrekturen der Fahrmuster und eine zuverlÀssige Feststellung
der je Bahn geleisteten Ăberfahrten möglich sind. Durch die
flĂ€chendeckende Ăberwachung und deren Dokumentation ist es
darĂŒber hinaus möglich, von punktuellen PrĂŒfungen der fertigen
Leistung auf die gleichmĂ€Ăige Verdichtung der gesamten
ArbeitsflĂ€che zu schlieĂen.
Aktuelle CIRC-Systeme fĂŒr Walzen im AsphaltstraĂenbau gliedern
sich in Aktive Systeme (Messung von BodenreaktionskrÀften, mit
oder ohne automatische Regelung der Parameter fĂŒr die
Vibrationsverdichtung) und Passive Systeme (Visualisierung und
Dokumentation der Verfahrbahnen, mit und ohne Wegeplanung).
Passive Systeme sind dabei mit geringerem meĂtechnischen Aufwand
realisierbar und bieten, durch die flÀchige Darstellung der
geleisteten Ăberfahrten, eine aussagekrĂ€ftige und zuverlĂ€ssige
Kontrollmethode. Dabei verwenden die in Kapitel 3 vorgestellten
CIRC-Maschinensysteme sehr teuere, aber hochgenaue
RTK-GPS-EmpfÀnger als Basis der Positionierung. Diese erlauben
MeĂgenauigkeiten bis zu wenigen Zentimetern.
Das Konzept eines Passiven Systems fĂŒr die Ăberwachung und
Dokumentation der Verfahrbahnen einer Walze mit möglichst
geringem meĂtechnischen Aufwand wird in Kapitel 4 vorgestellt.
Die minimalen Anforderungen an die erforderliche MeĂgenauigkeit
der Positionierung werden untersucht und festgelegt. Diese
erlauben nun eine kostengĂŒnstigere Realisierung der
Positionierung als bisher praktiziert. Es wird begrĂŒndet, daĂ
die im Vergleich zu bisherigen Anforderungen geringere
MeĂgenauigkeit ohne EinfluĂ auf die LeistungsfĂ€higkeit und
Anwendbarkeit des Systems der kontinuierlichen Kontrolle ist.
FĂŒr die Positionierung bietet sich die Satellitennavigation an
(Kapitel 5). Die Verwendung eines C/A-Code GPS-EmpfÀngers
erweist sich als kostengĂŒnstige Lösung und wird in zahlreichen
statischen und kinematischen Versuchen untersucht. Dabei wird
eine, den gesetzten Anforderungen entsprechende MeĂgenauigkeit
erreicht. Die Versuche zeigen eine Wiederholbarkeit.
Von diesen Ergebnissen ausgehend, wird eine
Positionierungslösung fĂŒr den Baubetrieb auf der Basis
kostengĂŒnstiger GPS-EmpfĂ€nger vorgestellt (Kapitel 6). Um die
fĂŒr den Baubetrieb erforderliche und ausreichende Sicherheit der
Positionierung zu erreichen, werden zwei voneinander unabhÀngige
kostengĂŒnstige GPS-EmpfĂ€nger eingesetzt und mit einem
Geschwindigkeitssensor kombiniert. Dabei wird eine Serie
asynchroner Erweiterter Kalman-Filter genutzt, um redundante
Messungen zu verarbeiten und zu einer globalen ZustandsschÀtzung
zusammenzufĂŒhren. In zahlreichen Feldversuchen hat der Verfasser
die neuartige, kostengĂŒnstige Positionierung fĂŒr Walzen
untersucht. Sie wurde zuletzt bei umfangreichen Baustellentests
wÀhrend des Forschungsprojektes OSYRIS im September 2002 in
Schweden erfolgreich eingesetzt.
Das in dieser Arbeit vorgestellte kostengĂŒnstige
Positionierungssystem fĂŒr Asphaltwalzen wird zur Zeit durch die
MOBA Mobile Automation AG, einen industriellen Partner des
Forschungsprojektes OSYRIS, in ein CIRC-System fĂŒr Asphaltwalzen
integriert. Die Vorstellung des Prototyps ist fĂŒr das FrĂŒhjahr
2004 geplant
Binokulare EigenbewegungsschĂ€tzung fĂŒr Fahrerassistenzanwendungen
Driving can be dangerous. Humans become inattentive when performing a monotonous task like driving. Also the risk implied while multi-tasking, like using the cellular phone while driving, can break the concentration of the driver and increase the risk of accidents. Others factors like exhaustion, nervousness and excitement affect the performance of the driver and the response time. Consequently, car manufacturers have developed systems in the last decades which assist the driver under various circumstances. These systems are called driver assistance systems. Driver assistance systems are meant to support the task of driving, and the field of action varies from alerting the driver, with acoustical or optical warnings, to taking control of the car, such as keeping the vehicle in the traffic lane until the driver resumes control. For such a purpose, the vehicle is equipped with on-board sensors which allow the perception of the environment and/or the state of the vehicle. Cameras are sensors which extract useful information about the visual appearance of the environment. Additionally, a binocular system allows the extraction of 3D information. One of the main requirements for most camera-based driver assistance systems is the accurate knowledge of the motion of the vehicle. Some sources of information, like velocimeters and GPS, are of common use in vehicles today. Nevertheless, the resolution and accuracy usually achieved with these systems are not enough for many real-time applications. The computation of ego-motion from sequences of stereo images for the implementation of driving intelligent systems, like autonomous navigation or collision avoidance, constitutes the core of this thesis. This dissertation proposes a framework for the simultaneous computation of the 6 degrees of freedom of ego-motion (rotation and translation in 3D Euclidean space), the estimation of the scene structure and the detection and estimation of independently moving objects. The input is exclusively provided by a binocular system and the framework does not call for any data acquisition strategy, i.e. the stereo images are just processed as they are provided. Stereo allows one to establish correspondences between left and right images, estimating 3D points of the environment via triangulation. Likewise, feature tracking establishes correspondences between the images acquired at different time instances. When both are used together for a large number of points, the result is a set of clouds of 3D points with point-to-point correspondences between clouds. The apparent motion of the 3D points between consecutive frames is caused by a variety of reasons. The most dominant motion for most of the points in the clouds is caused by the ego-motion of the vehicle; as the vehicle moves and images are acquired, the relative position of the world points with respect to the vehicle changes. Motion is also caused by objects moving in the environment. They move independently of the vehicle motion, so the observed motion for these points is the sum of the ego-vehicle motion and the independent motion of the object. A third reason, and of paramount importance in vision applications, is caused by correspondence problems, i.e. the incorrect spatial or temporal assignment of the point-to-point correspondence. Furthermore, all the points in the clouds are actually noisy measurements of the real unknown 3D points of the environment. Solving ego-motion and scene structure from the clouds of points requires some previous analysis of the noise involved in the imaging process, and how it propagates as the data is processed. Therefore, this dissertation analyzes the noise properties of the 3D points obtained through stereo triangulation. This leads to the detection of a bias in the estimation of 3D position, which is corrected with a reformulation of the projection equation. Ego-motion is obtained by finding the rotation and translation between the two clouds of points. This problem is known as absolute orientation, and many solutions based on least squares have been proposed in the literature. This thesis reviews the available closed form solutions to the problem. The proposed framework is divided in three main blocks: 1) stereo and feature tracking computation, 2) ego-motion estimation and 3) estimation of 3D point position and 3D velocity. The first block solves the correspondence problem providing the clouds of points as output. No special implementation of this block is required in this thesis. The ego-motion block computes the motion of the cameras by finding the absolute orientation between the clouds of static points in the environment. Since the cloud of points might contain independently moving objects and outliers generated by false correspondences, the direct computation of the least squares might lead to an erroneous solution. The first contribution of this thesis is an effective rejection rule that detects outliers based on the distance between predicted and measured quantities, and reduces the effects of noisy measurement by assigning appropriate weights to the data. This method is called Smoothness Motion Constraint (SMC). The ego-motion of the camera between two frames is obtained finding the absolute orientation between consecutive clouds of weighted 3D points. The complete ego-motion since initialization is achieved concatenating the individual motion estimates. This leads to a super-linear propagation of the error, since noise is integrated. A second contribution of this dissertation is a predictor/corrector iterative method, which integrates the clouds of 3D points of multiple time instances for the computation of ego-motion. The presented method considerably reduces the accumulation of errors in the estimated ego-position of the camera. Another contribution of this dissertation is a method which recursively estimates the 3D world position of a point and its velocity; by fusing stereo, feature tracking and the estimated ego-motion in a Kalman Filter system. An improved estimation of point position is obtained this way, which is used in the subsequent system cycle resulting in an improved computation of ego-motion. The general contribution of this dissertation is a single framework for the real time computation of scene structure, independently moving objects and ego-motion for automotive applications.Autofahren kann gefĂ€hrlich sein. Die Fahrleistung wird durch die physischen und psychischen Grenzen des Fahrers und durch externe Faktoren wie das Wetter beeinflusst. Fahrerassistenzsysteme erhöhen den Fahrkomfort und unterstĂŒtzen den Fahrer, um die Anzahl an UnfĂ€llen zu verringern. Fahrerassistenzsysteme unterstĂŒtzen den Fahrer durch Warnungen mit optischen oder akustischen Signalen bis hin zur Ăbernahme der Kontrolle ĂŒber das Auto durch das System. Eine der Hauptvoraussetzungen fĂŒr die meisten Fahrerassistenzsysteme ist die akkurate Kenntnis der Bewegung des eigenen Fahrzeugs. Heutzutage verfĂŒgt man ĂŒber verschiedene Sensoren, um die Bewegung des Fahrzeugs zu messen, wie zum Beispiel GPS und Tachometer. Doch Auflösung und Genauigkeit dieser Systeme sind nicht ausreichend fĂŒr viele Echtzeitanwendungen. Die Berechnung der Eigenbewegung aus Stereobildsequenzen fĂŒr Fahrerassistenzsysteme, z.B. zur autonomen Navigation oder Kollisionsvermeidung, bildet den Kern dieser Arbeit. Diese Dissertation prĂ€sentiert ein System zur Echtzeitbewertung einer Szene, inklusive Detektion und Bewertung von unabhĂ€ngig bewegten Objekten sowie der akkuraten SchĂ€tzung der sechs Freiheitsgrade der Eigenbewegung. Diese grundlegenden Bestandteile sind erforderlich, um viele intelligente Automobilanwendungen zu entwickeln, die den Fahrer in unterschiedlichen Verkehrssituationen unterstĂŒtzen. Das System arbeitet ausschlieĂlich mit einer Stereokameraplattform als Sensor. Um die Eigenbewegung und die Szenenstruktur zu berechnen wird eine Analyse des Rauschens und der Fehlerfortpflanzung im Bildaufbereitungsprozess benötigt. Deshalb werden in dieser Dissertation die Rauscheigenschaften der durch Stereotriangulation erhaltenen 3D-Punkte analysiert. Dies fĂŒhrt zu der Entdeckung eines systematischen Fehlers in der SchĂ€tzung der 3D-Position, der sich mit einer Neuformulierung der Projektionsgleichung korrigieren lĂ€sst. Die Simulationsergebnisse zeigen, dass eine bedeutende Verringerung des Fehlers in der geschĂ€tzten 3D-Punktposition möglich ist. Die EigenbewegungsschĂ€tzung wird gewonnen, indem die Rotation und Translation zwischen Punktwolken geschĂ€tzt wird. Dieses Problem ist als âabsolute Orientierungâ bekannt und viele Lösungen auf Basis der Methode der kleinsten Quadrate sind in der Literatur vorgeschlagen worden. Diese Arbeit rezensiert die verfĂŒgbaren geschlossenen Lösungen zu dem Problem. Das vorgestellte System gliedert sich in drei wesentliche Bausteine: 1. Registrierung von Bildmerkmalen, 2. EigenbewegungsschĂ€tzung und 3. iterative SchĂ€tzung von 3D-Position und 3D-Geschwindigkeit von Weltpunkten. Der erster Block erhĂ€lt eine Folge rektifizierter Bilder als Eingabe und liefert daraus eine Liste von verfolgten Bildmerkmalen mit ihrer entsprechenden 3D-Position. Der Block âEigenbewegungsschĂ€tzungâ besteht aus vier Hauptschritten in einer Schleife: 1. Bewegungsvorhersage, 2. Anwendung der Glattheitsbedingung fĂŒr die Bewegung (GBB), 3. absolute Orientierungsberechnung und 4. Bewegungsintegration. Die in dieser Dissertation vorgeschlagene GBB ist eine mĂ€chtige Bedingung fĂŒr die Ablehnung von AusreiĂern und fĂŒr die Zuordnung von Gewichten zu den gemessenen 3D-Punkten. Simulationen werden mit gauĂschem und slashschem Rauschen ausgefĂŒhrt. Die Ergebnisse zeigen die Ăberlegenheit der GBB-Version ĂŒber die Standardgewichtungsmethoden. Die StabilitĂ€t der Ergebnisse hinsichtlich AusreiĂern wurde analysiert mit dem Resultat, dass der âbreak down pointâ gröĂer als 50% ist. Wenn die vier Schritte iterativ ausgefĂŒhrt, werden wird ein PrĂ€diktor-Korrektor-Verfahren gewonnen.Wir nennen diese SchĂ€tzung Multi-frameschĂ€tzung im Gegensatz zur ZweiframeschĂ€tzung, die nur die aktuellen und vorherigen Bildpaare fĂŒr die Berechnung der Eigenbewegung betrachtet. Die erste Iteration wird zwischen der aktuellen und vorherigen Wolke von Punkten durchgefĂŒhrt. Jede weitere Iteration integriert eine zusĂ€tzliche Punktwolke eines vorherigen Zeitpunkts. Diese Methode reduziert die Fehlerakkumulation bei der Integration von mehreren SchĂ€tzungen in einer einzigen globalen SchĂ€tzung. Simulationsergebnisse zeigen, dass obwohl der Fehler noch superlinear im Laufe der Zeit zunimmt, die GröĂe des Fehlers um mehrere GröĂenordnungen reduziert wird. Der dritte Block besteht aus der iterativen SchĂ€tzung von 3D-Position und 3D-Geschwindigkeit von Weltpunkten. Hier wird eine Methode basierend auf einem Kalman Filter verwendet, das Stereo, Featuretracking und Eigenbewegungsdaten fusioniert. Messungen der Position eines Weltpunkts werden durch das Stereokamerasystem gewonnen. Die Differenzierung der Position des geschĂ€tzten Punkts erlaubt die zusĂ€tzliche SchĂ€tzung seiner Geschwindigkeit. Die Messungen werden durch das Messmodell gewonnen, das Stereo- und Bewegungsdaten fusioniert. Simulationsergebnisse validieren das Modell. Die Verringerung der Positionsunsicherheit im Laufe der Zeit wird mit einer Monte-Carlo Simulation erzielt. Experimentelle Ergebnisse werden mit langen Sequenzen von Bildern erzielt. ZusĂ€tzliche Tests, einschlieĂlich einer 3D-Rekonstruktion einer Waldszene und der Berechnung der freien Kamerabewegung in einem Indoor-Szenario, wurden durchgefĂŒhrt. Die Methode zeigt gute Ergebnisse in allen FĂ€llen. Der Algorithmus liefert zudem akzeptable Ergebnisse bei der SchĂ€tzung der Lage kleiner Objekte, wie Köpfe und Beine von realen Crash-Test-Dummies