29 research outputs found

    Analysis of affine motion-compensated prediction and its application in aerial video coding

    Get PDF
    Motion-compensated prediction is used in video coding standards like High Efficiency Video Coding (HEVC) as one key element of data compression. Commonly, a purely translational motion model is employed. In order to also cover non-translational motion types like rotation or scaling (zoom) contained in aerial video sequences such as captured from unmanned aerial vehicles, an affine motion model can be applied. In this work, a model for affine motion-compensated prediction in video coding is derived by extending a model of purely translational motion-compensated prediction. Using the rate-distortion theory and the displacement estimation error caused by inaccurate affine motion parameter estimation, the minimum required bit rate for encoding the prediction error is determined. In this model, the affine transformation parameters are assumed to be affected by statistically independent estimation errors, which all follow a zero-mean Gaussian distributed probability density function (pdf). The joint pdf of the estimation errors is derived and transformed into the pdf of the location-dependent displacement estimation error in the image. The latter is related to the minimum required bit rate for encoding the prediction error. Similar to the derivations of the fully affine motion model, a four-parameter simplified affine model is investigated. It is of particular interest since such a model is considered for the upcoming video coding standard Versatile Video Coding (VVC) succeeding HEVC. As the simplified affine motion model is able to describe most motions contained in aerial surveillance videos, its application in video coding is justified. Both models provide valuable information about the minimum bit rate for encoding the prediction error as a function of affine estimation accuracies. Although the bit rate in motion-compensated prediction can be considerably reduced by using a motion model which is able to describe motion types occurring in the scene, the total video bit rate may remain quite high, depending on the motion estimation accuracy. Thus, at the example of aerial surveillance sequences, a codec independent region of interest- ( ROI -) based aerial video coding system is proposed that exploits the characteristic of such sequences. Assuming the captured scene to be planar, one frame can be projected into another using global motion compensation. Consequently, only new emerging areas have to be encoded. At the decoder, all new areas are registered into a so-called mosaic. From this, reconstructed frames are extracted and concatenated as a video sequence. To also preserve moving objects in the reconstructed video, local motion is detected and encoded in addition to the new areas. The proposed general ROI coding system was evaluated for very low and low bit rates between 100 and 5000 kbit/s for aerial sequences of HD resolution. It is able to reduce the bit rate by 90% compared to common HEVC coding of similar quality. Subjective tests confirm that the overall image quality of the ROI coding system exceeds that of a common HEVC encoder especially at very low bit rates below 1 Mbit/s. To prevent discontinuities introduced by inaccurate global motion estimation, as may be caused by radial lens distortion, a fully automatic in-loop radial distortion compensation is proposed. For this purpose, an unknown radial distortion compensation parameter that is constant for a group of frames is jointly estimated with the global motion. This parameter is optimized to minimize the distortions of the projections of frames in the mosaic. By this approach, the global motion compensation was improved by 0.27dB and discontinuities in the frames extracted from the mosaic are diminished. As an additional benefit, the generation of long-term mosaics becomes possible, constructed by more than 1500 aerial frames with unknown radial lens distortion and without any calibration or manual lens distortion compensation.Bewegungskompensierte Prädiktion wird in Videocodierstandards wie High Efficiency Video Coding (HEVC) als ein Schlüsselelement zur Datenkompression verwendet. Typischerweise kommt dabei ein rein translatorisches Bewegungsmodell zum Einsatz. Um auch nicht-translatorische Bewegungen wie Rotation oder Skalierung (Zoom) beschreiben zu können, welche beispielsweise in von unbemannten Luftfahrzeugen aufgezeichneten Luftbildvideosequenzen enthalten sind, kann ein affines Bewegungsmodell verwendet werden. In dieser Arbeit wird aufbauend auf einem rein translatorischen Bewegungsmodell ein Modell für affine bewegungskompensierte Prädiktion hergeleitet. Unter Verwendung der Raten-Verzerrungs-Theorie und des Verschiebungsschätzfehlers, welcher aus einer inexakten affinen Bewegungsschätzung resultiert, wird die minimal erforderliche Bitrate zur Codierung des Prädiktionsfehlers hergeleitet. Für die Modellierung wird angenommen, dass die sechs Parameter einer affinen Transformation durch statistisch unabhängige Schätzfehler gestört sind. Für jeden dieser Schätzfehler wird angenommen, dass die Wahrscheinlichkeitsdichteverteilung einer mittelwertfreien Gaußverteilung entspricht. Aus der Verbundwahrscheinlichkeitsdichte der Schätzfehler wird die Wahrscheinlichkeitsdichte des ortsabhängigen Verschiebungsschätzfehlers im Bild berechnet. Letztere wird schließlich zu der minimalen Bitrate in Beziehung gesetzt, welche für die Codierung des Prädiktionsfehlers benötigt wird. Analog zur obigen Ableitung des Modells für das voll-affine Bewegungsmodell wird ein vereinfachtes affines Bewegungsmodell mit vier Freiheitsgraden untersucht. Ein solches Modell wird derzeit auch im Rahmen der Standardisierung des HEVC-Nachfolgestandards Versatile Video Coding (VVC) evaluiert. Da das vereinfachte Modell bereits die meisten in Luftbildvideosequenzen vorkommenden Bewegungen abbilden kann, ist der Einsatz des vereinfachten affinen Modells in der Videocodierung gerechtfertigt. Beide Modelle liefern wertvolle Informationen über die minimal benötigte Bitrate zur Codierung des Prädiktionsfehlers in Abhängigkeit von der affinen Schätzgenauigkeit. Zwar kann die Bitrate mittels bewegungskompensierter Prädiktion durch Wahl eines geeigneten Bewegungsmodells und akkurater affiner Bewegungsschätzung stark reduziert werden, die verbleibende Gesamtbitrate kann allerdings dennoch relativ hoch sein. Deshalb wird am Beispiel von Luftbildvideosequenzen ein Regionen-von-Interesse- (ROI-) basiertes Codiersystem vorgeschlagen, welches spezielle Eigenschaften solcher Sequenzen ausnutzt. Unter der Annahme, dass eine aufgenommene Szene planar ist, kann ein Bild durch globale Bewegungskompensation in ein anderes projiziert werden. Deshalb müssen vom aktuellen Bild prinzipiell nur noch neu im Bild erscheinende Bereiche codiert werden. Am Decoder werden alle neuen Bildbereiche in einem gemeinsamen Mosaikbild registriert, aus dem schließlich die Einzelbilder der Videosequenz rekonstruiert werden können. Um auch lokale Bewegungen abzubilden, werden bewegte Objekte detektiert und zusätzlich zu neuen Bildbereichen als ROI codiert. Die Leistungsfähigkeit des ROI-Codiersystems wurde insbesondere für sehr niedrige und niedrige Bitraten von 100 bis 5000 kbit/s für Bilder in HD-Auflösung evaluiert. Im Vergleich zu einer gewöhnlichen HEVC-Codierung kann die Bitrate um 90% reduziert werden. Durch subjektive Tests wurde bestätigt, dass das ROI-Codiersystem insbesondere für sehr niedrige Bitraten von unter 1 Mbit/s deutlich leistungsfähiger in Bezug auf Detailauflösung und Gesamteindruck ist als ein herkömmliches HEVC-Referenzsystem. Um Diskontinuitäten in den rekonstruierten Videobildern zu vermeiden, die durch eine durch Linsenverzeichnungen induzierte ungenaue globale Bewegungsschätzung entstehen können, wird eine automatische Radialverzeichnungskorrektur vorgeschlagen. Dabei wird ein unbekannter, jedoch über mehrere Bilder konstanter Korrekturparameter gemeinsam mit der globalen Bewegung geschätzt. Dieser Parameter wird derart optimiert, dass die Projektionen der Bilder in das Mosaik möglichst wenig verzerrt werden. Daraus resultiert eine um 0,27dB verbesserte globale Bewegungskompensation, wodurch weniger Diskontinuitäten in den aus dem Mosaik rekonstruierten Bildern entstehen. Dieses Verfahren ermöglicht zusätzlich die Erstellung von Langzeitmosaiken aus über 1500 Luftbildern mit unbekannter Radialverzeichnung und ohne manuelle Korrektur

    Real-time image mosaicking for mapping and exploration purposes

    Get PDF
    [Abstract] In the last decade, building mosaic images become an active field in several computer vision and graphic applications. In this paper, a panoramic image construction using monocular camera is proposed. In this approach, SURF algorithm is used to extract the keypoints in order to obtain reliable results for real-time applications. In addition, based on the homography between the panoramic and the new image, the rotation matrix is obtained, and the new image can be projected on a plane parallel to panorama. Finally, image illumination is compensated over the whole image and the calculation of the pixels contributed by each frame in the overlapping areas. The proposed approach has been verified with real flights, and the obtained results show the robustness of constructing panoramic image with minimal loosing in the information, furthermore, the results prove the ability of the proposed approach to create panoramic images in real-time applications.Ministerio de Economía, Industria y Competitividad; TRA2015-63708-RMinisterio de Economía y Competitividad; TRA2016-78886-C3-1-RComunidad de Madrid; S2013/MIT-271

    Seabed fluid flow-related processes: evidence and quantification based on high-resolution imaging techniques and GIS analyses

    Get PDF
    This work provides new insights on different aspects of seabed fluid flow processes based on seafloor observations. The methods used entirely rely on ROV-based high-resolution imaging and mapping techniques. Optical data are used to produce visual maps of the seafloor, in the form of geo-referenced video- and photo-mosaics, whereas acoustic techniques allow mapping the micro-bathymetry of the seabed, as well as the signal reflectivity of the sediment surface and of the water column. This work presents three case studies, about two sites of seabed fluid flow: the Menez Gwen hydrothermal vent on the MAR and the REGAB pockmark in the Lower Congo Basin. On the technical side, some of the high-resolution techniques used in this thesis are not commonly used by the marine scientific community. This is particularly the case for large-area photo-mosaics. Although the interest in mosaicking is growing, there are still no tools freely and readily available to scientists to routinely construct large-area photo-mosaics. Therefore, this work presents a MATLAB toolbox for large-area photo-mosaicking (LAPM toolbox), which was developed as part of this thesis

    Autocalibrating vision guided navigation of unmanned air vehicles via tactical monocular cameras in GPS denied environments

    Get PDF
    This thesis presents a novel robotic navigation strategy by using a conventional tactical monocular camera, proving the feasibility of using a monocular camera as the sole proximity sensing, object avoidance, mapping, and path-planning mechanism to fly and navigate small to medium scale unmanned rotary-wing aircraft in an autonomous manner. The range measurement strategy is scalable, self-calibrating, indoor-outdoor capable, and has been biologically inspired by the key adaptive mechanisms for depth perception and pattern recognition found in humans and intelligent animals (particularly bats), designed to assume operations in previously unknown, GPS-denied environments. It proposes novel electronics, aircraft, aircraft systems, systems, and procedures and algorithms that come together to form airborne systems which measure absolute ranges from a monocular camera via passive photometry, mimicking that of a human-pilot like judgement. The research is intended to bridge the gap between practical GPS coverage and precision localization and mapping problem in a small aircraft. In the context of this study, several robotic platforms, airborne and ground alike, have been developed, some of which have been integrated in real-life field trials, for experimental validation. Albeit the emphasis on miniature robotic aircraft this research has been tested and found compatible with tactical vests and helmets, and it can be used to augment the reliability of many other types of proximity sensors

    Image-Based Rendering Of Real Environments For Virtual Reality

    Get PDF

    Contributions to improve the technologies supporting unmanned aircraft operations

    Get PDF
    Mención Internacional en el título de doctorUnmanned Aerial Vehicles (UAVs), in their smaller versions known as drones, are becoming increasingly important in today's societies. The systems that make them up present a multitude of challenges, of which error can be considered the common denominator. The perception of the environment is measured by sensors that have errors, the models that interpret the information and/or define behaviors are approximations of the world and therefore also have errors. Explaining error allows extending the limits of deterministic models to address real-world problems. The performance of the technologies embedded in drones depends on our ability to understand, model, and control the error of the systems that integrate them, as well as new technologies that may emerge. Flight controllers integrate various subsystems that are generally dependent on other systems. One example is the guidance systems. These systems provide the engine's propulsion controller with the necessary information to accomplish a desired mission. For this purpose, the flight controller is made up of a control law for the guidance system that reacts to the information perceived by the perception and navigation systems. The error of any of the subsystems propagates through the ecosystem of the controller, so the study of each of them is essential. On the other hand, among the strategies for error control are state-space estimators, where the Kalman filter has been a great ally of engineers since its appearance in the 1960s. Kalman filters are at the heart of information fusion systems, minimizing the error covariance of the system and allowing the measured states to be filtered and estimated in the absence of observations. State Space Models (SSM) are developed based on a set of hypotheses for modeling the world. Among the assumptions are that the models of the world must be linear, Markovian, and that the error of their models must be Gaussian. In general, systems are not linear, so linearization are performed on models that are already approximations of the world. In other cases, the noise to be controlled is not Gaussian, but it is approximated to that distribution in order to be able to deal with it. On the other hand, many systems are not Markovian, i.e., their states do not depend only on the previous state, but there are other dependencies that state space models cannot handle. This thesis deals a collection of studies in which error is formulated and reduced. First, the error in a computer vision-based precision landing system is studied, then estimation and filtering problems from the deep learning approach are addressed. Finally, classification concepts with deep learning over trajectories are studied. The first case of the collection xviiistudies the consequences of error propagation in a machine vision-based precision landing system. This paper proposes a set of strategies to reduce the impact on the guidance system, and ultimately reduce the error. The next two studies approach the estimation and filtering problem from the deep learning approach, where error is a function to be minimized by learning. The last case of the collection deals with a trajectory classification problem with real data. This work completes the two main fields in deep learning, regression and classification, where the error is considered as a probability function of class membership.Los vehículos aéreos no tripulados (UAV) en sus versiones de pequeño tamaño conocidos como drones, van tomando protagonismo en las sociedades actuales. Los sistemas que los componen presentan multitud de retos entre los cuales el error se puede considerar como el denominador común. La percepción del entorno se mide mediante sensores que tienen error, los modelos que interpretan la información y/o definen comportamientos son aproximaciones del mundo y por consiguiente también presentan error. Explicar el error permite extender los límites de los modelos deterministas para abordar problemas del mundo real. El rendimiento de las tecnologías embarcadas en los drones, dependen de nuestra capacidad de comprender, modelar y controlar el error de los sistemas que los integran, así como de las nuevas tecnologías que puedan surgir. Los controladores de vuelo integran diferentes subsistemas los cuales generalmente son dependientes de otros sistemas. Un caso de esta situación son los sistemas de guiado. Estos sistemas son los encargados de proporcionar al controlador de los motores información necesaria para cumplir con una misión deseada. Para ello se componen de una ley de control de guiado que reacciona a la información percibida por los sistemas de percepción y navegación. El error de cualquiera de estos sistemas se propaga por el ecosistema del controlador siendo vital su estudio. Por otro lado, entre las estrategias para abordar el control del error se encuentran los estimadores en espacios de estados, donde el filtro de Kalman desde su aparición en los años 60, ha sido y continúa siendo un gran aliado para los ingenieros. Los filtros de Kalman son el corazón de los sistemas de fusión de información, los cuales minimizan la covarianza del error del sistema, permitiendo filtrar los estados medidos y estimarlos cuando no se tienen observaciones. Los modelos de espacios de estados se desarrollan en base a un conjunto de hipótesis para modelar el mundo. Entre las hipótesis se encuentra que los modelos del mundo han de ser lineales, markovianos y que el error de sus modelos ha de ser gaussiano. Generalmente los sistemas no son lineales por lo que se realizan linealizaciones sobre modelos que a su vez ya son aproximaciones del mundo. En otros casos el ruido que se desea controlar no es gaussiano, pero se aproxima a esta distribución para poder abordarlo. Por otro lado, multitud de sistemas no son markovianos, es decir, sus estados no solo dependen del estado anterior, sino que existen otras dependencias que los modelos de espacio de estados no son capaces de abordar. Esta tesis aborda un compendio de estudios sobre los que se formula y reduce el error. En primer lugar, se estudia el error en un sistema de aterrizaje de precisión basado en visión por computador. Después se plantean problemas de estimación y filtrado desde la aproximación del aprendizaje profundo. Por último, se estudian los conceptos de clasificación con aprendizaje profundo sobre trayectorias. El primer caso del compendio estudia las consecuencias de la propagación del error de un sistema de aterrizaje de precisión basado en visión artificial. En este trabajo se propone un conjunto de estrategias para reducir el impacto sobre el sistema de guiado, y en última instancia reducir el error. Los siguientes dos estudios abordan el problema de estimación y filtrado desde la perspectiva del aprendizaje profundo, donde el error es una función que minimizar mediante aprendizaje. El último caso del compendio aborda un problema de clasificación de trayectorias con datos reales. Con este trabajo se completan los dos campos principales en aprendizaje profundo, regresión y clasificación, donde se plantea el error como una función de probabilidad de pertenencia a una clase.I would like to thank the Ministry of Science and Innovation for granting me the funding with reference PRE2018-086793, associated to the project TEC2017-88048-C2-2-R, which provide me the opportunity to carry out all my PhD. activities, including completing an international research internship.Programa de Doctorado en Ciencia y Tecnología Informática por la Universidad Carlos III de MadridPresidente: Antonio Berlanga de Jesús.- Secretario: Daniel Arias Medina.- Vocal: Alejandro Martínez Cav

    Robust Estimation of Motion Parameters and Scene Geometry : Minimal Solvers and Convexification of Regularisers for Low-Rank Approximation

    Get PDF
    In the dawning age of autonomous driving, accurate and robust tracking of vehicles is a quintessential part. This is inextricably linked with the problem of Simultaneous Localisation and Mapping (SLAM), in which one tries to determine the position of a vehicle relative to its surroundings without prior knowledge of them. The more you know about the object you wish to track—through sensors or mechanical construction—the more likely you are to get good positioning estimates. In the first part of this thesis, we explore new ways of improving positioning for vehicles travelling on a planar surface. This is done in several different ways: first, we generalise the work done for monocular vision to include two cameras, we propose ways of speeding up the estimation time with polynomial solvers, and we develop an auto-calibration method to cope with radially distorted images, without enforcing pre-calibration procedures.We continue to investigate the case of constrained motion—this time using auxiliary data from inertial measurement units (IMUs) to improve positioning of unmanned aerial vehicles (UAVs). The proposed methods improve the state-of-the-art for partially calibrated cases (with unknown focal length) for indoor navigation. Furthermore, we propose the first-ever real-time compatible minimal solver for simultaneous estimation of radial distortion profile, focal length, and motion parameters while utilising the IMU data.In the third and final part of this thesis, we develop a bilinear framework for low-rank regularisation, with global optimality guarantees under certain conditions. We also show equivalence between the linear and the bilinear framework, in the sense that the objectives are equal. This enables users of alternating direction method of multipliers (ADMM)—or other subgradient or splitting methods—to transition to the new framework, while being able to enjoy the benefits of second order methods. Furthermore, we propose a novel regulariser fusing two popular methods. This way we are able to combine the best of two worlds by encouraging bias reduction while enforcing low-rank solutions

    Localization, Mapping and SLAM in Marine and Underwater Environments

    Get PDF
    The use of robots in marine and underwater applications is growing rapidly. These applications share the common requirement of modeling the environment and estimating the robots’ pose. Although there are several mapping, SLAM, target detection and localization methods, marine and underwater environments have several challenging characteristics, such as poor visibility, water currents, communication issues, sonar inaccuracies or unstructured environments, that have to be considered. The purpose of this Special Issue is to present the current research trends in the topics of underwater localization, mapping, SLAM, and target detection and localization. To this end, we have collected seven articles from leading researchers in the field, and present the different approaches and methods currently being investigated to improve the performance of underwater robots

    Remote Sensing for Urban Sprawl Detection on Istanbul : Quantification and Detection of Key-Actions with Integrated GIS

    Get PDF
    Die vorliegende Arbeit basiert auf dem Projekt MOLAND für Istanbul, welches in den Jahren 2001 und 2002 für den Joint Research Centre der Europäischen Kommission in Ispra/Italien durchgeführt wurde. Zunächst wird in einem Hintergrund-Kapitel eine Einführung zum Projekt MOLAND (Monitoring Land-Use Dynamics) und seinen Zielen selbst gegeben, danach werden die weiteren Ziele der vorliegenden Arbeit definiert. Um die rasch wachsende Metropole Istanbul im Kontext zu begreifen, werden die wichtigsten geographischen und sozioökonomische Gegebenheiten zunächst für die Türkei dann auch speziell für die Marmara- Region und Istanbul skizziert. Neben der naturräumlichen Ausstattung werden auch Aspekte wie Migration, Wirtschaft, Industrialisierung, Tourismus und anderes angesprochen um Istanbul mit seinem Hinterland in Wechselwirkung zu verstehen. Ein kurzer geschichtlicher Abriss und eine Aufstellung der aktuellen Probleme schließt dieses Kapitel ab. Ein methodisches Kapitel ist der eigentlichen Analyse vorangestellt. Hier wird zunächst auf die Problematik der Landnutzungserfassung eingegangen, da jede Form einer solchen Klassifizierung ein Einpressen individueller Strukturen in ein festes Schema darstellt. Dies ist aber hinsichtlich von Vergleichen eine Notwendigkeit. Es werden dahingehend auch die CORINE und MOLAND Legenden mit Beispielen erläutert und die in dieser Studie genutzten häufigen Klassen dargestellt. Danach wird auf die Nutzungsmöglichkeiten von Geographischen Informationssystemen eingegangen, welche für solche räumlichen Analysen von großer Bedeutung sind. Datenmodelle, Formate und die Kombination unterschiedlichster Quellen in einem „Daten-Warenhaus“ werden vorgestellt. Schließlich wird auf die Datenbeschaffung und die genutzten Quellen eingegangen. Basierend auf deren Verfügbarkeit ergaben sich schließlich so die untersuchten Jahre 1945, 1968, 1988 und 2000. Neben topographischen Karten, die als Georeferenz dienten, wurden für die 1940er Jahre und 1968 Luftbilder beschafft, für 1987/88 KFA und KVR Satellitenphotos gekauft und für das Referenzjahr 2000 IKONOS und IRS Satellitenszenen vom JRC zur Verfügung gestellt. Auf weiterführende Daten und deren Nutzungsmöglichkeiten, z.B. Geologie, Geländemodelle, Thematische Karten, Statistiken usw. wird ebenfalls eingegangen. Detailliert werden die methodischen Schritte der Satellitenbild-Georeferenzierung, der photogrammetrischen Auswertung und Orthorektifizierung der Luftbilder und auch die weiteren vorbereitenden Arbeitsschritte vorgestellt. Die Methodik zur eigentliche Auswertung bzw. Interpretation der Daten erfolgt ebenfalls in diesem Kapitel, da Vektorisierung und Zuweisung der Nutzung in einem Prozess erfolgten. Neben Versuchen der automatischen Klassifizierung mittels Clusteranalyse wird auch diese manuelle Methode kritisch hinterfragt und Probleme aber auch häufig genutzte Klassen vorgestellt. Ein weiterer wichtiger methodischer Schritt ist die Rückdatierung (down-dating) der Referenz-Daten zur Erzeugung der historischen Landnutzungsdaten. Kurz wird auch auf die gemischte Datenverarbeitung eingegangen, welche in der späteren Analyse eine Rolle spielt. Da bei der manuellen Bearbeitung der Daten auch Dritte im Rahmen des Projektes beteiligt waren, wird auf eine Definition der notwendigen Arbeitsschritte besonderer Wert gelegt. Im drittel Kapitel wird zunächst das genaue Untersuchungsgebiet definiert und eine Betrachtung der geometrischen und thematischen Genauigkeit durchgeführt. Dann werden für alle Jahre die extrahierten Landnutzungsklassen in ihrer Lage, Größe und Nutzung präsentiert und auch das ebenfalls erfasste Verkehrsnetz betrachtet. Dies erfolgt sowohl in Form von Karten als auch kumulativer Statistiken für die gewählten Untersuchungsjahre. Im vierten Kapitel werden dann die Daten zunächst im Überblick analysiert und Entwicklungen anhand von Flächenzuwächsen oder Verlusten bilanziert. Anhand von Beispielen mit Luft- und Satellitenbildern und der entsprechenden Auswertungen wird der Landschaftswandel vom ländlichen Raum zur Grosstadt verdeutlicht. Bereits hier wird der enorme Zuwachs städtischer Strukturen vorwiegend zu Lasten der Landwirtschaftsflächen deutlich. Auch die Küstenlinie und Lagunen werden überplant und besondere infrastrukturelle Einrichtungen wie der Flughafen tragen zur Urbanisierung bei. 11 Räumliche Statistiken und kombinierte Analysen vertiefen in Kapitel 5 die vorangegangenen Feststellungen indem direkt die umgewidmeten Flächen extrahiert werden und auch Strukturänderungen innerhalb von Gruppen, z.B. der Wohngebiete festgestellt werden. Detaillierter werden nun einzelne Klassen analysiert und so z.B. der Trend zu dichterer Wohnbebauung herausgestellt. In Verbindung mit demographischen Daten werden unter Zuhilfenahme von Modellansätzen Analysen der Wohndichte durchgeführt, die den Trend zu „weniger Personen auf gleicher Wohnfläche“ herausstellen. Ein Vergleich der Entwicklung der Asiatischen und der Europäischen Seite Istanbuls stellt die Schlüsselfunktion der Bosporusbrücken heraus. Diese infrastrukturelle Maßnahme initiierte ein urbanes Wachstum enormer Dimension auf der Asiatischen Seite Istanbuls, vor allem bei der Wohnbebauung. Ferner werden in diesem Kapitel auch Entwicklungstrends sowohl statistisch als auch kartographisch dargestellt und Achsen der möglichen künftigen Ausdehnung Istanbuls aufgezeigt. In Kapitel 6 wird Istanbul zunächst mit den weltgrößten Agglomerationen verglichen und die Entwicklung von 1950 bis in die nahe Zukunft (2015) prognostiziert. Mit einer heute moderaten jährlichen Wachstumsrate von 2% steht Istanbul deutlich hinter anderen Agglomerationen in Südamerika, Indien und China zurück, jedoch auch noch deutlich über den niedrigen oder sogar negativen Raten westeuropäischer Großstädte. In einem zweiten Schritt wird Istanbul auch mit den bereits untersuchten 24 MOLAND-Städten verglichen und deren zeit-räumliche Entwicklung gegenübergestellt. Dabei ist nicht in allen Aspekten die Entwicklung Istanbuls als dramatisch anzusehen wenngleich der Verstädterungsprozess den der anderen Agglomerationen weit übertrifft. Istanbul wird schließlich auch mit benachbarten Metropolen und anderen türkischen Städten in Vergleich gesetzt. Dabei wird die Ähnlichkeit der westmediterranen, nicht europäischen Ballungszentren festgestellt. Bezogen auf die Türkei ist Istanbul nicht mehr die wachstumsstärkste Stadt. Andere Städte profitieren weiter von der Industrialisierung, dem Tourismus und der Migration aus dem Hinterland, besonders Ost- und Nordanatolien, welche nach wie vor anhält. Neben einer zusammenfassenden Interpretation wird auf Nutzungsmöglichkeiten der Daten eingegangen. Vor allem auf wissenschaftlicher Seite bestehen mögliche Kooperationen auch mit Interesse weiterführender finanziell unterstützter Projekte. Endnutzer, z.B. kommunale Organisationen. Ämter, Behörden sowie Dienstleistungsbetriebe wie die Wasserversorgung sind grundsätzlich an den Daten interessiert, an eine Datenintegration und Entwicklung von Strategien hierfür müsste aber noch gearbeitet werden. Als Beispiel für Nutzung im Krisenmanagement wird basierend auf den gewonnenen Daten eine Tsunami- Gefährdungskarte entwickelt, welche Geländemodell und aktuelle Küstenlinie nutzt um planungsrelevante Hinweise zu geben. Abschließend werden die methodischen Schritte kritisch hinsichtlich Kosten-Nutzen- Zeitaufwand diskutiert und offene Probleme angesprochen. Möglichkeiten aber auch Limits zur weiteren Nutzung der Daten werden offen diskutiert und auch zu gering berücksichtigte Methoden, welche es in Zukunft stärker zu integrieren gilt, erwähnt

    Analysing Large-scale Surveillance Video

    Get PDF
    Analysing large-scale surveillance video has drawn signi cant attention because drone technology and high-resolution sensors are rapidly improving. The mobility of drones makes it possible to monitor a broad range of the environment, but it introduces a more di cult problem of identifying the objects of interest. This thesis aims to detect the moving objects (mostly vehicles) using the idea of background subtraction. Building a decent background is the key to success during the process. We consider two categories of surveillance videos in this thesis: when the scene is at and when pronounced parallax exists. After reviewing several global motion estimation approaches, we propose a novel cost function, the log-likelihood of the student t-distribution, to estimate the background motion between two frames. The proposed idea enables the estimation process to be e cient and robust with auto-generated parameters. Since the particle lter is useful in various subjects, it is investigated in this thesis. An improvement to particle lters, combining near-optimal proposal and Rao-Blackwellisation, is discussed to increase the e ciency when dealing with non-linear problems. Such improvement is used to solve visual simultaneous localisation and mapping (SLAM) problems and we call it RB2-PF. Its superiority is evident in both simulations of 2D SLAM and real datasets of visual odometry problems. Finally, RB2-PF based visual odometry is the key component to detect moving objects from surveillance videos with pronounced parallax. The idea is to consider multiple planes in the scene to improve the background motion estimation. Experiments have shown that false alarms signi cantly reduced. With the landmark information, a ground plane can be worked out. A near-constant velocity model can be applied after mapping the detections on the ground plane regardless of the position and orientation of the camera. All the detection results are nally processed by a multi-target tracker, the Gaussian mixture probabilistic hypothesis density (GM-PHD) lter, to generate tracks
    corecore