5 research outputs found

    Fortgeschrittene Methoden und Algorithmen für die computergestützte geodätische Datenanalyse

    Get PDF
    Die fortschreitende Digitalisierung mit ihren innovativen Technologien stellt zunehmende Anforderungen an Wirtschaft, Gesellschaft und Verwaltungen. Digitale Daten gelten als Schlüsselressource, die hohe Ansprüche u.a. an die Datenverarbeitung stellt, wie z. B. hohe Geschwindigkeit und Zuverlässigkeit. Besondere Bedeutung sind digitalen Daten mit Raumbezug beizumessen. Digitale Daten stammen im Bereich der Geodäsie und Geoinformatik von Multi-Sensor-Systemen, Satellitenmissionen, Smartphones, technischen Geräten, Computern oder von Datenbanken unterschiedlichster Institutionen und Behörden. „Big Data“ heißt der Trend und es gilt die enormen Datenmengen so breit und so effektiv wie möglich zu nutzen und mit Hilfe von computergestützten Tools, beispielsweise basierend auf künstlicher Intelligenz, auszuwerten. Um diese großen Datenmengen statistisch auszuwerten und zu analysieren, müssen laufend neue Modelle und Algorithmen entwickelt, getestet und validiert werden. Algorithmen erleichtern Geodätinnen und Geodäten seit Jahrzehnten das Leben - sie schätzen, entscheiden, wählen aus und bewerten die durchgeführten Analysen. Bei der geodätisch-statistischen Datenanalyse werden Beobachtungen zusammen mit Fachkenntnissen verwendet, um ein Modell zur Untersuchung und zum besseren Verständnis eines datengenerierenden Prozesses zu entwickeln. Die Datenanalyse wird verwendet, um das Modell zu verfeinern oder möglicherweise ein anderes Modell auszuwählen, um geeignete Werte für Modellterme zu bestimmen und um das Modell zu verwenden, oder um Aussagen über den Prozess zu treffen. Die Fortschritte in der Statistik in den vergangenen Jahren beschränken sich nicht nur auf die Theorie, sondern umfassen auch die Entwicklung von neuartigen computergestützten Methoden. Die Fortschritte in der Rechenleistung haben neuere und aufwendigere statistische Methoden ermöglicht. Eine Vielzahl von alternativen Darstellungen der Daten und von Modellen können untersucht werden. Wenn bestimmte statistische Modelle mathematisch nicht realisierbar sind, müssen Approximationsmethoden angewendet werden, die oft auf asymptotischer Inferenz basieren. Fortschritte in der Rechenleistung und Entwicklungen in der Theorie haben die computergestützte Inferenz zu einer praktikablen und nützlichen Alternative zu den Standardmethoden der asymptotischen Inferenz in der traditionellen Statistik werden lassen. Die computergestützte Inferenz basiert auf der Simulation statistischer Modelle. Die vorliegende Habilitationsschrift stellt die Ergebnisse der Forschungsaktivitäten des Autors im Bereich der statistischen und simulationsbasierten Inferenz für die geodätische Datenanalyse vor, die am Geodätischen Institut der Gottfried Wilhelm Leibniz Universität Hannover während der Zeit des Autors als Postdoktorand von 2009 bis 2019 publiziert wurden. Die Forschungsschwerpunkte in dieser Arbeit befassen sich mit der Entwicklung von mathematisch-statistischen Modellen, Schätzverfahren und computergestützten Algorithmen, um raum-zeitliche und möglicherweise unvollständige Daten, welche durch zufällige, systematische, ausreißerbehaftete und korrelierte Messabweichungen charakterisiert sind, rekursiv sowie nicht-rekursiv auszugleichen. Herausforderungen bestehen hierbei in der genauen, zuverlässigen und effizienten Schätzung der unbekannten Modellparameter, in der Ableitung von Qualitätsmaßen der Schätzung sowie in der statistisch-simulationsbasierten Beurteilung der Schätzergebnisse. Die Forschungsschwerpunkte haben verschiedene Anwendungsmöglichkeiten in den Bereichen der Ingenieurgeodäsie und der Immobilienbewertung gefunden
    corecore