504 research outputs found
Characterizing Signal Loss in the 21 cm Reionization Power Spectrum: A Revised Study of PAPER-64
The Epoch of Reionization (EoR) is an uncharted era in our Universe's history
during which the birth of the first stars and galaxies led to the ionization of
neutral hydrogen in the intergalactic medium. There are many experiments
investigating the EoR by tracing the 21cm line of neutral hydrogen. Because
this signal is very faint and difficult to isolate, it is crucial to develop
analysis techniques that maximize sensitivity and suppress contaminants in
data. It is also imperative to understand the trade-offs between different
analysis methods and their effects on power spectrum estimates. Specifically,
with a statistical power spectrum detection in HERA's foreseeable future, it
has become increasingly important to understand how certain analysis choices
can lead to the loss of the EoR signal. In this paper, we focus on signal loss
associated with power spectrum estimation. We describe the origin of this loss
using both toy models and data taken by the 64-element configuration of the
Donald C. Backer Precision Array for Probing the Epoch of Reionization (PAPER).
In particular, we highlight how detailed investigations of signal loss have led
to a revised, higher 21cm power spectrum upper limit from PAPER-64.
Additionally, we summarize errors associated with power spectrum error
estimation that were previously unaccounted for. We focus on a subset of
PAPER-64 data in this paper; revised power spectrum limits from the PAPER
experiment are presented in a forthcoming paper by Kolopanis et al. (in prep.)
and supersede results from previously published PAPER analyses.Comment: 25 pages, 18 figures, Accepted by Ap
Analysis of point based image registration errors with applications in single molecule microscopy
We present an asymptotic treatment of errors involved in point-based image registration where control point (CP) localization is subject to heteroscedastic noise; a suitable model for image registration in fluorescence microscopy. Assuming an affine transform, CPs are used to solve a multivariate regression problem. With measurement errors existing for both sets of CPs this is an errors-in-variable problem and linear least squares is inappropriate; the correct method being generalized least squares. To allow for point dependent errors the equivalence of a generalized maximum likelihood and heteroscedastic generalized least squares model is achieved allowing previously published asymptotic results to be extended to image registration. For a particularly useful model of heteroscedastic noise where covariance matrices are scalar multiples of a known matrix (including the case where covariance matrices are multiples of the identity) we provide closed form solutions to estimators and derive their distribution. We consider the target registration error (TRE) and define a new measure called the localization registration error (LRE) believed to be useful, especially in microscopy registration experiments. Assuming Gaussianity of the CP localization errors, it is shown that the asymptotic distribution for the TRE and LRE are themselves Gaussian and the parameterized distributions are derived. Results are successfully applied to registration in single molecule microscopy to derive the key dependence of the TRE and LRE variance on the number of CPs and their associated photon counts. Simulations show asymptotic results are robust for low CP numbers and non-Gaussianity. The method presented here is shown to outperform GLS on real imaging data.</p
Structural Variability from Noisy Tomographic Projections
In cryo-electron microscopy, the 3D electric potentials of an ensemble of
molecules are projected along arbitrary viewing directions to yield noisy 2D
images. The volume maps representing these potentials typically exhibit a great
deal of structural variability, which is described by their 3D covariance
matrix. Typically, this covariance matrix is approximately low-rank and can be
used to cluster the volumes or estimate the intrinsic geometry of the
conformation space. We formulate the estimation of this covariance matrix as a
linear inverse problem, yielding a consistent least-squares estimator. For
images of size -by- pixels, we propose an algorithm for calculating this
covariance estimator with computational complexity
, where the condition number
is empirically in the range --. Its efficiency relies on the
observation that the normal equations are equivalent to a deconvolution problem
in 6D. This is then solved by the conjugate gradient method with an appropriate
circulant preconditioner. The result is the first computationally efficient
algorithm for consistent estimation of 3D covariance from noisy projections. It
also compares favorably in runtime with respect to previously proposed
non-consistent estimators. Motivated by the recent success of eigenvalue
shrinkage procedures for high-dimensional covariance matrices, we introduce a
shrinkage procedure that improves accuracy at lower signal-to-noise ratios. We
evaluate our methods on simulated datasets and achieve classification results
comparable to state-of-the-art methods in shorter running time. We also present
results on clustering volumes in an experimental dataset, illustrating the
power of the proposed algorithm for practical determination of structural
variability.Comment: 52 pages, 11 figure
Robust GNSS Carrier Phase-based Position and Attitude Estimation Theory and Applications
Mención Internacional en el título de doctorNavigation information is an essential element for the functioning of robotic platforms and
intelligent transportation systems. Among the existing technologies, Global Navigation Satellite
Systems (GNSS) have established as the cornerstone for outdoor navigation, allowing for
all-weather, all-time positioning and timing at a worldwide scale. GNSS is the generic term
for referring to a constellation of satellites which transmit radio signals used primarily for
ranging information. Therefore, the successful operation and deployment of prospective
autonomous systems is subject to our capabilities to support GNSS in the provision of
robust and precise navigational estimates.
GNSS signals enable two types of ranging observations: –code pseudorange, which is a
measure of the time difference between the signal’s emission and reception at the satellite
and receiver, respectively, scaled by the speed of light; –carrier phase pseudorange, which
measures the beat of the carrier signal and the number of accumulated full carrier cycles.
While code pseudoranges provides an unambiguous measure of the distance between satellites
and receiver, with a dm-level precision when disregarding atmospheric delays and clock offsets,
carrier phase measurements present a much higher precision, at the cost of being ambiguous by
an unknown number of integer cycles, commonly denoted as ambiguities. Thus, the maximum
potential of GNSS, in terms of navigational precision, can be reach by the use of carrier phase
observations which, in turn, lead to complicated estimation problems.
This thesis deals with the estimation theory behind the provision of carrier phase-based
precise navigation for vehicles traversing scenarios with harsh signal propagation conditions.
Contributions to such a broad topic are made in three directions. First, the ultimate positioning
performance is addressed, by proposing lower bounds on the signal processing realized at the
receiver level and for the mixed real- and integer-valued problem related to carrier phase-based
positioning. Second, multi-antenna configurations are considered for the computation of a
vehicle’s orientation, introducing a new model for the joint position and attitude estimation
problems and proposing new deterministic and recursive estimators based on Lie Theory.
Finally, the framework of robust statistics is explored to propose new solutions to code- and
carrier phase-based navigation, able to deal with outlying impulsive noises.La información de navegación es un elemental fundamental para el funcionamiento de sistemas
de transporte inteligentes y plataformas robóticas. Entre las tecnologías existentes, los
Sistemas Globales de Navegación por Satélite (GNSS) se han consolidado como la piedra
angular para la navegación en exteriores, dando acceso a localización y sincronización temporal
a una escala global, irrespectivamente de la condición meteorológica. GNSS es el término
genérico que define una constelación de satélites que transmiten señales de radio, usadas
primordinalmente para proporcionar información de distancia. Por lo tanto, la operatibilidad y
funcionamiento de los futuros sistemas autónomos pende de nuestra capacidad para explotar
GNSS y estimar soluciones de navegación robustas y precisas.
Las señales GNSS permiten dos tipos de observaciones de alcance: –pseudorangos de
código, que miden el tiempo transcurrido entre la emisión de las señales en los satélites y su
acquisición en la tierra por parte de un receptor; –pseudorangos de fase de portadora, que
miden la fase de la onda sinusoide que portan dichas señales y el número acumulado de ciclos
completos. Los pseudorangos de código proporcionan una medida inequívoca de la distancia
entre los satélites y el receptor, con una precisión de decímetros cuando no se tienen en
cuenta los retrasos atmosféricos y los desfases del reloj. En contraposición, las observaciones
de la portadora son super precisas, alcanzando el milímetro de exactidud, a expensas de ser
ambiguas por un número entero y desconocido de ciclos. Por ende, el alcanzar la máxima
precisión con GNSS queda condicionado al uso de las medidas de fase de la portadora, lo
cual implica unos problemas de estimación de elevada complejidad.
Esta tesis versa sobre la teoría de estimación relacionada con la provisión de navegación
precisa basada en la fase de la portadora, especialmente para vehículos que transitan escenarios
donde las señales no se propagan fácilmente, como es el caso de las ciudades. Para ello,
primero se aborda la máxima efectividad del problema de localización, proponiendo cotas
inferiores para el procesamiento de la señal en el receptor y para el problema de estimación
mixto (es decir, cuando las incógnitas pertenecen al espacio de números reales y enteros). En
segundo lugar, se consideran las configuraciones multiantena para el cálculo de la orientación de un vehículo, presentando un nuevo modelo para la estimación conjunta de posición y
rumbo, y proponiendo estimadores deterministas y recursivos basados en la teoría de Lie. Por
último, se explora el marco de la estadística robusta para proporcionar nuevas soluciones de
navegación precisa, capaces de hacer frente a los ruidos atípicos.Programa de Doctorado en Ciencia y Tecnología Informática por la Universidad Carlos III de MadridPresidente: José Manuel Molina López.- Secretario: Giorgi Gabriele.- Vocal: Fabio Dovi
Fortgeschrittene Methoden und Algorithmen für die computergestützte geodätische Datenanalyse
Die fortschreitende Digitalisierung mit ihren innovativen Technologien stellt zunehmende Anforderungen an Wirtschaft, Gesellschaft und Verwaltungen. Digitale Daten gelten als Schlüsselressource, die hohe Ansprüche u.a. an die Datenverarbeitung stellt, wie z. B. hohe Geschwindigkeit und Zuverlässigkeit. Besondere Bedeutung sind digitalen Daten mit Raumbezug beizumessen. Digitale Daten stammen im Bereich der Geodäsie und Geoinformatik von Multi-Sensor-Systemen, Satellitenmissionen, Smartphones, technischen Geräten, Computern oder von Datenbanken unterschiedlichster Institutionen und Behörden. „Big Data“ heißt der Trend und es gilt die enormen Datenmengen so breit und so effektiv wie möglich zu nutzen und mit Hilfe von computergestützten Tools, beispielsweise basierend auf künstlicher Intelligenz, auszuwerten. Um diese großen Datenmengen statistisch auszuwerten und zu analysieren, müssen laufend neue Modelle und Algorithmen entwickelt, getestet und validiert werden. Algorithmen erleichtern Geodätinnen und Geodäten seit Jahrzehnten das Leben - sie schätzen, entscheiden, wählen aus und bewerten die durchgeführten Analysen.
Bei der geodätisch-statistischen Datenanalyse werden Beobachtungen zusammen mit Fachkenntnissen verwendet, um ein Modell zur Untersuchung und zum besseren Verständnis eines datengenerierenden Prozesses zu entwickeln. Die Datenanalyse wird verwendet, um das Modell zu verfeinern oder möglicherweise ein anderes Modell auszuwählen, um geeignete Werte für Modellterme zu bestimmen und um das Modell zu verwenden, oder um Aussagen über den Prozess zu treffen. Die Fortschritte in der Statistik in den vergangenen Jahren beschränken sich nicht nur auf die Theorie, sondern umfassen auch die Entwicklung von neuartigen computergestützten Methoden. Die Fortschritte in der Rechenleistung haben neuere und aufwendigere statistische Methoden ermöglicht. Eine Vielzahl von alternativen Darstellungen der Daten und von Modellen können untersucht werden.
Wenn bestimmte statistische Modelle mathematisch nicht realisierbar sind, müssen Approximationsmethoden angewendet werden, die oft auf asymptotischer Inferenz basieren. Fortschritte in der Rechenleistung und Entwicklungen in der Theorie haben die computergestützte Inferenz zu einer praktikablen und nützlichen Alternative zu den Standardmethoden der asymptotischen Inferenz in der traditionellen Statistik werden lassen. Die computergestützte Inferenz basiert auf der Simulation statistischer Modelle.
Die vorliegende Habilitationsschrift stellt die Ergebnisse der Forschungsaktivitäten des Autors im Bereich der statistischen und simulationsbasierten Inferenz für die geodätische Datenanalyse vor, die am Geodätischen Institut der Gottfried Wilhelm Leibniz Universität Hannover während der Zeit des Autors als Postdoktorand von 2009 bis 2019 publiziert wurden. Die Forschungsschwerpunkte in dieser Arbeit befassen sich mit der Entwicklung von mathematisch-statistischen Modellen, Schätzverfahren und computergestützten Algorithmen, um raum-zeitliche und möglicherweise unvollständige Daten, welche durch zufällige, systematische, ausreißerbehaftete und korrelierte Messabweichungen charakterisiert sind, rekursiv sowie nicht-rekursiv auszugleichen. Herausforderungen bestehen hierbei in der genauen, zuverlässigen und effizienten Schätzung der unbekannten Modellparameter, in der Ableitung von Qualitätsmaßen der Schätzung sowie in der statistisch-simulationsbasierten Beurteilung der Schätzergebnisse. Die Forschungsschwerpunkte haben verschiedene Anwendungsmöglichkeiten in den Bereichen der Ingenieurgeodäsie und der Immobilienbewertung gefunden
- …