59 research outputs found

    On Monte Carlo methods with applications to the current satellite gravity missions

    Get PDF
    Large-scaled least squares problems require tailored numerical techniques to overcome the computational burden.For these types of problems iterative strategies are suitable because of their flexibility and effectiveness. The first shortcoming of iterative strategies in least squares estimation is the fact that the inverse of the normal equation matrix as the carrier of the covariance information is not available or very expensive to compute. Another shortcoming within iterative strategies arises when different types of observation groups with different stochastic properties are to be combined. In this case the choice of optimum weight factors, and eventually regularization parameters, by means of variance component estimation is essential for obtaining reliable estimates of the unknown parameters. Unfortunately, the conventional method of variance component estimation requires the repeated inversion of large products of matrices. This thesis presents algorithms based on Monte Carlo methods, which can be integrated very efficiently into iterative solvers, and which are demonstrated to close the aforementioned gaps. Tailored strategies for different types of solution techniques with respect to normal equations, observation equations and combined models are treated. In addition, the thesis presents new criteria to define confidence regions of the estimated variance information of the parameters, as well as for all additional derived quantities. The developed algorithms for computing variance/covariance matrices and for obtaining variance components are tailored to be integrated into the Preconditioned Conjugate Gradients Multiple Adjustment (PCGMA) algorithm of Schuh 1996 and Boxhammer 2006. These algorithms are applied in a case study to simulated GOCE data, where Satellite Gravity Gradiometry (SGG) data in form of observation equations and Satellite-to-Satellite tracking (SST) data in form of normal equations are combined for recovering the Earth’s gravity field. In großdimensionierten Ausgleichungsproblemen lassen sich die numerischen Kosten oft nur mit speziell angepassten Techniken in erträglichen Grenzen halten. Iterative Strategien sind hier aufgrund ihrer Flexibilität und Effizienz besonders geeignet. Allerdings wird dabei der Gewinn an Rechenzeit mit einem Verlust an Information erkauft, da iterative Löser zumeist nicht effizient sind, um die Varianz-Kovarianz-Matrix der Unbekannten zu liefern. Ein weiterer Nachteil zeigt sich, wenn Beobachtungsgruppen mit unterschiedlichen stochastischen Eigenschaften miteinander kombiniert werden sollen. In diesem Fall ist es notwendig, die optimalen Gewichtungsfaktoren - eventuell auch Regularisierungsparameter - über die Schätzung von Varianzkomponenten zu bestimmen. Die herkömmliche Methode der Varianzkomponentenschätzung erfordert dabei die wiederholte Inversion großer Matrizen. In dieser Arbeit wird gezeigt, daß sich diese Probleme mit auf Monte-Carlo-Methoden basierenden Algorithmen lösen lassen, die sehr effizient in iterative Löser integriert werden können. Speziell angepasste Algorithmen für Löser, die verschiedene Beobachtungsgruppen sowohl auf Basis von Normalgleichungen als auch auf Basis von Beobachtungsgleichungen oder auch Kombinationen von Beobachtungs- und Normalgleichungen verarbeiten können, werden vorgestellt. Darüber hinaus werden in dieser Arbeit neue Kriterien angegeben, mit denen Konfidenzintervalle für die Varianzinformation der geschätzten Parameter und auch aller abgeleiteten Größen angegeben werden können. Die entwickelten Algorithmen zur Berechnung der Varianz-Kovarianz-Matrizen und zur Schätzung der Varianzkomponenten werden in den PCGMA-Algorithmus von Schuh 1996 und Boxhammer 2006 integriert. Sie werden auf ein Testszenario mit simulierten GOCEDaten angewendet, in dem zur Bestimmung des Erdschwerefeldes ”Satellite Gravity Gradiometry”-Daten auf Basis von Beobachtungsgleichungen mit ”Satellite-to-Satellite-Tracking”-Daten auf Basis von Normalgleichungen miteinander kombiniert werden.Zu Monte Carlo Methoden mit Anwendungen in aktuellen Schwerefeldsatellitenmissionen In großdimensionierten Ausgleichungsproblemen lassen sich die numerischen Kosten oft nur mit speziell angepassten Techniken in erträglichen Grenzen halten. Iterative Strategien sind hier aufgrund ihrer Flexibilität und Effizienz besonders geeignet. Allerdings wird dabei der Gewinn an Rechenzeit mit einem Verlust an Information erkauft, da iterative Löser zumeist nicht effizient sind, um die Varianz-Kovarianz-Matrix der Unbekannten zu liefern. Ein weiterer Nachteil zeigt sich, wenn Beobachtungsgruppen mit unterschiedlichen stochastischen Eigenschaften miteinander kombiniert werden sollen. In diesem Fall ist es notwendig, die optimalen Gewichtungsfaktoren - eventuell auch Regularisierungsparameter - über die Schätzung von Varianzkomponenten zu bestimmen. Die herkömmliche Methode der Varianzkomponentenschätzung erfordert dabei die wiederholte Inversion großer Matrizen. In dieser Arbeit wird gezeigt, daß sich diese Probleme mit auf Monte-Carlo-Methoden basierenden Algorithmen lösen lassen, die sehr effizient in iterative Löser integriert werden können. Speziell angepasste Algorithmen für Löser, die verschiedene Beobachtungsgruppen sowohl auf Basis von Normalgleichungen als auch auf Basis von Beobachtungsgleichungen oder auch Kombinationen von Beobachtungs- und Normalgleichungen verarbeiten können, werden vorgestellt. Darüber hinaus werden in dieser Arbeit neue Kriterien angegeben, mit denen Konfidenzintervalle für die Varianzinformation der geschätzten Parameter und auch aller abgeleiteten Größen angegeben werden können. Die entwickelten Algorithmen zur Berechnung der Varianz-Kovarianz-Matrizen und zur Schätzung der Varianzkomponenten werden in den PCGMA-Algorithmus von Schuh (1996) und Boxhammer (2006) integriert. Sie werden auf ein Testszenario mit simulierten GOCE-Daten angewendet, in dem zur Bestimmung des Erdschwerefeldes "Satellite Gravity Gradiometry"-Daten auf Basis von Beobachtungsgleichungen mit "Satellite-to-Satellite-Tracking"-Daten auf Basis von Normalgleichungen miteinander kombiniert werden

    Estimation of Measurement Uncertainty of kinematic TLS Observation Process by means of Monte-Carlo Methods

    Get PDF
    In many cases, the uncertainty of output quantities may be computed by assuming that the distribution represented by the result of measurement and its associated standard uncertainty is a Gaussian. This assumption may be unjustified and the uncertainty of the output quantities determined in this way may be incorrect. One tool to deal with different distribution functions of the input parameters and the resulting mixed-distribution of the output quantities is given through the Monte Carlo techniques. The resulting empirical distribution can be used to approximate the theoretical distribution of the output quantities. All required moments of different orders can then be numerically determined. To evaluate the procedure of derivation and evaluation of output parameter uncertainties outlined in this paper, a case study of kinematic terrestrial laserscanning (k-TLS) will be discussed. This study deals with two main topics: the refined simulation of different configurations by taking different input parameters with diverse probability functions for the uncertainty model into account, and the statistical analysis of the real data in order to improve the physical observation models in case of k-TLS. The solution of both problems is essential for the highly sensitive and physically meaningful application of k-TLS techniques for monitoring of, e. g., large structures such as bridges

    Uncertainty Modelling of Laser Scanning Point Clouds Using Machine-Learning Methods

    Get PDF
    Terrestrial laser scanners (TLSs) are a standard method for 3D point cloud acquisition due to their high data rates and resolutions. In certain applications, such as deformation analysis, modelling uncertainties in the 3D point cloud is crucial. This study models the systematic deviations in laser scan distance measurements as a function of various influencing factors using machine-learning methods. A reference point cloud is recorded using a laser tracker (Leica AT 960) and a handheld scanner (Leica LAS-XL) to investigate the uncertainties of the Z+F Imager 5016 in laboratory conditions. From 49 TLS scans, a wide range of data are obtained, covering various influencing factors. The processes of data preparation, feature engineering, validation, regression, prediction, and result analysis are presented. The results of traditional machine-learning methods (multiple linear and nonlinear regression) are compared with eXtreme gradient boosted trees (XGBoost). Thereby, it is demonstrated that it is possible to model the systemic deviations of the distance measurement with a coefficient of determination of 0.73, making it possible to calibrate the distance measurement to improve the laser scan measurement. An independent TLS scan is used to demonstrate the calibration results

    Fortgeschrittene Methoden und Algorithmen für die computergestützte geodätische Datenanalyse

    Get PDF
    Die fortschreitende Digitalisierung mit ihren innovativen Technologien stellt zunehmende Anforderungen an Wirtschaft, Gesellschaft und Verwaltungen. Digitale Daten gelten als Schlüsselressource, die hohe Ansprüche u.a. an die Datenverarbeitung stellt, wie z. B. hohe Geschwindigkeit und Zuverlässigkeit. Besondere Bedeutung sind digitalen Daten mit Raumbezug beizumessen. Digitale Daten stammen im Bereich der Geodäsie und Geoinformatik von Multi-Sensor-Systemen, Satellitenmissionen, Smartphones, technischen Geräten, Computern oder von Datenbanken unterschiedlichster Institutionen und Behörden. „Big Data“ heißt der Trend und es gilt die enormen Datenmengen so breit und so effektiv wie möglich zu nutzen und mit Hilfe von computergestützten Tools, beispielsweise basierend auf künstlicher Intelligenz, auszuwerten. Um diese großen Datenmengen statistisch auszuwerten und zu analysieren, müssen laufend neue Modelle und Algorithmen entwickelt, getestet und validiert werden. Algorithmen erleichtern Geodätinnen und Geodäten seit Jahrzehnten das Leben - sie schätzen, entscheiden, wählen aus und bewerten die durchgeführten Analysen. Bei der geodätisch-statistischen Datenanalyse werden Beobachtungen zusammen mit Fachkenntnissen verwendet, um ein Modell zur Untersuchung und zum besseren Verständnis eines datengenerierenden Prozesses zu entwickeln. Die Datenanalyse wird verwendet, um das Modell zu verfeinern oder möglicherweise ein anderes Modell auszuwählen, um geeignete Werte für Modellterme zu bestimmen und um das Modell zu verwenden, oder um Aussagen über den Prozess zu treffen. Die Fortschritte in der Statistik in den vergangenen Jahren beschränken sich nicht nur auf die Theorie, sondern umfassen auch die Entwicklung von neuartigen computergestützten Methoden. Die Fortschritte in der Rechenleistung haben neuere und aufwendigere statistische Methoden ermöglicht. Eine Vielzahl von alternativen Darstellungen der Daten und von Modellen können untersucht werden. Wenn bestimmte statistische Modelle mathematisch nicht realisierbar sind, müssen Approximationsmethoden angewendet werden, die oft auf asymptotischer Inferenz basieren. Fortschritte in der Rechenleistung und Entwicklungen in der Theorie haben die computergestützte Inferenz zu einer praktikablen und nützlichen Alternative zu den Standardmethoden der asymptotischen Inferenz in der traditionellen Statistik werden lassen. Die computergestützte Inferenz basiert auf der Simulation statistischer Modelle. Die vorliegende Habilitationsschrift stellt die Ergebnisse der Forschungsaktivitäten des Autors im Bereich der statistischen und simulationsbasierten Inferenz für die geodätische Datenanalyse vor, die am Geodätischen Institut der Gottfried Wilhelm Leibniz Universität Hannover während der Zeit des Autors als Postdoktorand von 2009 bis 2019 publiziert wurden. Die Forschungsschwerpunkte in dieser Arbeit befassen sich mit der Entwicklung von mathematisch-statistischen Modellen, Schätzverfahren und computergestützten Algorithmen, um raum-zeitliche und möglicherweise unvollständige Daten, welche durch zufällige, systematische, ausreißerbehaftete und korrelierte Messabweichungen charakterisiert sind, rekursiv sowie nicht-rekursiv auszugleichen. Herausforderungen bestehen hierbei in der genauen, zuverlässigen und effizienten Schätzung der unbekannten Modellparameter, in der Ableitung von Qualitätsmaßen der Schätzung sowie in der statistisch-simulationsbasierten Beurteilung der Schätzergebnisse. Die Forschungsschwerpunkte haben verschiedene Anwendungsmöglichkeiten in den Bereichen der Ingenieurgeodäsie und der Immobilienbewertung gefunden

    Uncertainty modeling of random and systematic errors by means of Monte Carlo and fuzzy techniques

    Get PDF
    The standard reference in uncertainty modeling is the “Guide to the Expression of Uncertainty in Measurement (GUM)”. GUM groups the occurring uncertain quantities into “Type A” and “Type B”. Uncertainties of “Type A” are determined with the classical statistical methods, while “Type B” is subject to other uncertainties which are obtained by experience and knowledge about an instrument or a measurement process. Both types of uncertainty can have random and systematic error components. Our study focuses on a detailed comparison of probability and fuzzy-random approaches for handling and propagating the different uncertainties, especially those of “Type B”. Whereas a probabilistic approach treats all uncertainties as having a random nature, the fuzzy technique distinguishes between random and deterministic errors. In the fuzzy-random approach the random components are modeled in a stochastic framework, and the deterministic uncertainties are treated by means of a range-of-values search problem. The applied procedure is outlined showing both the theory and a numerical example for the evaluation of uncertainties in an application for terrestrial laserscanning (TLS).DFG/KU/1250/4-

    On the impact of correlations on the congruence test: a bootstrap approach: Case study: B-spline surface fitting from TLS observations

    Get PDF
    The detection of deformation is one of the major tasks in surveying engineering. It is meaningful only if the statistical significance of the distortions is correctly investigated, which often underlies a parametric modelization of the object under consideration. So-called regression B-spline approximation can be performed for point clouds of terrestrial laser scanners, allowing the setting of a specific congruence test based on the B-spline surfaces. Such tests are known to be strongly influenced by the underlying stochastic model chosen for the observation errors. The latter has to be correctly specified, which includes accounting for heteroscedasticity and correlations. In this contribution, we justify and make use of a parametric correlation model called the Matérn model to approximate the variance covariance matrix (VCM) of the residuals by performing their empirical mode decomposition. The VCM obtained is integrated into the computation of the congruence test statistics for a more trustworthy test decision. Using a real case study, we estimate the distribution of the test statistics with a bootstrap approach, where no parametric assumptions are made about the underlying population that generated the random sample. This procedure allows us to assess the impact of neglecting correlations on the critical value of the congruence test, highlighting their importance

    Deformation analysis using B-spline surface with correlated terrestrial laser scanner observations-a bridge under load

    Get PDF
    The choice of an appropriate metric is mandatory to perform deformation analysis between two point clouds (PC)-the distance has to be trustworthy and, simultaneously, robust against measurement noise, which may be correlated and heteroscedastic. The Hausdorff distance (HD) or its averaged derivation (AHD) are widely used to compute local distances between two PC and are implemented in nearly all commercial software. Unfortunately, they are affected by measurement noise, particularly when correlations are present. In this contribution, we focus on terrestrial laser scanner (TLS) observations and assess the impact of neglecting correlations on the distance computation when a mathematical approximation is performed. The results of the simulations are extended to real observations from a bridge under load. Highly accurate laser tracker (LT) measurements were available for this experiment: they allow the comparison of the HD and AHD between two raw PC or between their mathematical approximations regarding reference values. Based on these results, we determine which distance is better suited in the case of heteroscedastic and correlated TLS observations for local deformation analysis. Finally, we set up a novel bootstrap testing procedure for this distance when the PC are approximated with B-spline surfaces

    Robust Spatial Approximation of Laser Scanner Point Clouds by Means of Free-form Curve Approaches in Deformation Analysis

    Get PDF
    In many geodetic engineering applications it is necessary to solve the problem of describing a measured data point cloud, measured, e. g. by laser scanner, by means of free-form curves or surfaces, e. g., with B-Splines as basis functions. The state of the art approaches to determine B-Splines yields results which are seriously manipulated by the occurrence of data gaps and outliers. Optimal and robust B-Spline fitting depend, however, on optimal selection of the knot vector. Hence we combine in our approach Monte-Carlo methods and the location and curvature of the measured data in order to determine the knot vector of the B-Spline in such a way that no oscillating effects at the edges of data gaps occur. We introduce an optimized approach based on computed weights by means of resampling techniques. In order to minimize the effect of outliers, we apply robust M-estimators for the estimation of control points. The above mentioned approach will be applied to a multi-sensor system based on kinematic terrestrial laserscanning in the field of rail track inspection. © 2016 Walter de Gruyter GmbH, Berlin/Munich/Boston

    A Spatiotemporal Functional Model for Bike-Sharing Systems -- An Example based on the City of Helsinki

    Full text link
    Understanding the usage patterns for bike-sharing systems is essential in terms of supporting and enhancing operational planning for such schemes. Studies have demonstrated how factors such as weather conditions influence the number of bikes that should be available at bike-sharing stations at certain times during the day. However, the influences of these factors usually vary over the course of a day, and if there is good temporal resolution, there could also be significant effects only for some hours/minutes (rush hours, the hours when shops are open, and so forth). Thus, in this paper, an analysis of Helsinki's bike-sharing data from 2017 is conducted that considers full temporal and spatial resolutions. Moreover, the data are available at a very high frequency. Hence, the station hire data is analysed in a spatiotemporal functional setting, where the number of bikes at a station is defined as a continuous function of the time of day. For this completely novel approach, we apply a functional spatiotemporal hierarchical model to investigate the effect of environmental factors and the magnitude of the spatial and temporal dependence. Challenges in computational complexity are faced using a bootstrapping approach. The results show the necessity of splitting the bike-sharing stations into two clusters based on the similarity of their spatiotemporal functional observations in order to model the station hire data of Helsinki's bike-sharing system effectively. The estimated functional influences of the proposed factors are different for the two clusters. Moreover, the estimated parameters reveal high random effects in the data that are not explained by the mean of the process. In this random-effects model, the temporal autoregressive parameter dominates the spatial dependence.Comment: 28 pages, 11 figures, submitted to journa

    Direct geo-referencing of a static terrestrial laser scanner

    Get PDF
    This paper describes an adaptive extended Kalman filter (AEKF) approach for geo-referencing tasks for a multi-sensor system (MSS). The MSS is a sensor fusion of a phase-measuring terrestrial laser scanner (TLS) with navigation sensors such as Global Navigation Satellite System (GNSS) equipment and inclinometers. The position and orientation of the MSS are the main parameters which are constant on a station and will be derived by a Kalman filtering process. Hence, the orientation of a TLS/MSS can be done without any demand for other artificial targets in the scanning area. However, using inclinometer measurements the spatial rotation angles about the X- and Y-axis of the fixed MSS station can be estimated by the AEKF. This makes it possible to determine all six degrees of freedom of the transformation from a sensor-defined to a global coordinate system. The paper gives a detailed discussion of the strategy used for the direct geo-referencing. The AEKF for the transformation parameters estimation is presented with focus on the modelling of the MSS motion. The usefulness of the suggested approach will be demonstrated using practical investigations
    corecore