504 research outputs found

    Characterizing Signal Loss in the 21 cm Reionization Power Spectrum: A Revised Study of PAPER-64

    Get PDF
    The Epoch of Reionization (EoR) is an uncharted era in our Universe's history during which the birth of the first stars and galaxies led to the ionization of neutral hydrogen in the intergalactic medium. There are many experiments investigating the EoR by tracing the 21cm line of neutral hydrogen. Because this signal is very faint and difficult to isolate, it is crucial to develop analysis techniques that maximize sensitivity and suppress contaminants in data. It is also imperative to understand the trade-offs between different analysis methods and their effects on power spectrum estimates. Specifically, with a statistical power spectrum detection in HERA's foreseeable future, it has become increasingly important to understand how certain analysis choices can lead to the loss of the EoR signal. In this paper, we focus on signal loss associated with power spectrum estimation. We describe the origin of this loss using both toy models and data taken by the 64-element configuration of the Donald C. Backer Precision Array for Probing the Epoch of Reionization (PAPER). In particular, we highlight how detailed investigations of signal loss have led to a revised, higher 21cm power spectrum upper limit from PAPER-64. Additionally, we summarize errors associated with power spectrum error estimation that were previously unaccounted for. We focus on a subset of PAPER-64 data in this paper; revised power spectrum limits from the PAPER experiment are presented in a forthcoming paper by Kolopanis et al. (in prep.) and supersede results from previously published PAPER analyses.Comment: 25 pages, 18 figures, Accepted by Ap

    Analysis of point based image registration errors with applications in single molecule microscopy

    No full text
    We present an asymptotic treatment of errors involved in point-based image registration where control point (CP) localization is subject to heteroscedastic noise; a suitable model for image registration in fluorescence microscopy. Assuming an affine transform, CPs are used to solve a multivariate regression problem. With measurement errors existing for both sets of CPs this is an errors-in-variable problem and linear least squares is inappropriate; the correct method being generalized least squares. To allow for point dependent errors the equivalence of a generalized maximum likelihood and heteroscedastic generalized least squares model is achieved allowing previously published asymptotic results to be extended to image registration. For a particularly useful model of heteroscedastic noise where covariance matrices are scalar multiples of a known matrix (including the case where covariance matrices are multiples of the identity) we provide closed form solutions to estimators and derive their distribution. We consider the target registration error (TRE) and define a new measure called the localization registration error (LRE) believed to be useful, especially in microscopy registration experiments. Assuming Gaussianity of the CP localization errors, it is shown that the asymptotic distribution for the TRE and LRE are themselves Gaussian and the parameterized distributions are derived. Results are successfully applied to registration in single molecule microscopy to derive the key dependence of the TRE and LRE variance on the number of CPs and their associated photon counts. Simulations show asymptotic results are robust for low CP numbers and non-Gaussianity. The method presented here is shown to outperform GLS on real imaging data.</p

    Structural Variability from Noisy Tomographic Projections

    Full text link
    In cryo-electron microscopy, the 3D electric potentials of an ensemble of molecules are projected along arbitrary viewing directions to yield noisy 2D images. The volume maps representing these potentials typically exhibit a great deal of structural variability, which is described by their 3D covariance matrix. Typically, this covariance matrix is approximately low-rank and can be used to cluster the volumes or estimate the intrinsic geometry of the conformation space. We formulate the estimation of this covariance matrix as a linear inverse problem, yielding a consistent least-squares estimator. For nn images of size NN-by-NN pixels, we propose an algorithm for calculating this covariance estimator with computational complexity O(nN4+κN6logN)\mathcal{O}(nN^4+\sqrt{\kappa}N^6 \log N), where the condition number κ\kappa is empirically in the range 1010--200200. Its efficiency relies on the observation that the normal equations are equivalent to a deconvolution problem in 6D. This is then solved by the conjugate gradient method with an appropriate circulant preconditioner. The result is the first computationally efficient algorithm for consistent estimation of 3D covariance from noisy projections. It also compares favorably in runtime with respect to previously proposed non-consistent estimators. Motivated by the recent success of eigenvalue shrinkage procedures for high-dimensional covariance matrices, we introduce a shrinkage procedure that improves accuracy at lower signal-to-noise ratios. We evaluate our methods on simulated datasets and achieve classification results comparable to state-of-the-art methods in shorter running time. We also present results on clustering volumes in an experimental dataset, illustrating the power of the proposed algorithm for practical determination of structural variability.Comment: 52 pages, 11 figure

    Robust GNSS Carrier Phase-based Position and Attitude Estimation Theory and Applications

    Get PDF
    Mención Internacional en el título de doctorNavigation information is an essential element for the functioning of robotic platforms and intelligent transportation systems. Among the existing technologies, Global Navigation Satellite Systems (GNSS) have established as the cornerstone for outdoor navigation, allowing for all-weather, all-time positioning and timing at a worldwide scale. GNSS is the generic term for referring to a constellation of satellites which transmit radio signals used primarily for ranging information. Therefore, the successful operation and deployment of prospective autonomous systems is subject to our capabilities to support GNSS in the provision of robust and precise navigational estimates. GNSS signals enable two types of ranging observations: –code pseudorange, which is a measure of the time difference between the signal’s emission and reception at the satellite and receiver, respectively, scaled by the speed of light; –carrier phase pseudorange, which measures the beat of the carrier signal and the number of accumulated full carrier cycles. While code pseudoranges provides an unambiguous measure of the distance between satellites and receiver, with a dm-level precision when disregarding atmospheric delays and clock offsets, carrier phase measurements present a much higher precision, at the cost of being ambiguous by an unknown number of integer cycles, commonly denoted as ambiguities. Thus, the maximum potential of GNSS, in terms of navigational precision, can be reach by the use of carrier phase observations which, in turn, lead to complicated estimation problems. This thesis deals with the estimation theory behind the provision of carrier phase-based precise navigation for vehicles traversing scenarios with harsh signal propagation conditions. Contributions to such a broad topic are made in three directions. First, the ultimate positioning performance is addressed, by proposing lower bounds on the signal processing realized at the receiver level and for the mixed real- and integer-valued problem related to carrier phase-based positioning. Second, multi-antenna configurations are considered for the computation of a vehicle’s orientation, introducing a new model for the joint position and attitude estimation problems and proposing new deterministic and recursive estimators based on Lie Theory. Finally, the framework of robust statistics is explored to propose new solutions to code- and carrier phase-based navigation, able to deal with outlying impulsive noises.La información de navegación es un elemental fundamental para el funcionamiento de sistemas de transporte inteligentes y plataformas robóticas. Entre las tecnologías existentes, los Sistemas Globales de Navegación por Satélite (GNSS) se han consolidado como la piedra angular para la navegación en exteriores, dando acceso a localización y sincronización temporal a una escala global, irrespectivamente de la condición meteorológica. GNSS es el término genérico que define una constelación de satélites que transmiten señales de radio, usadas primordinalmente para proporcionar información de distancia. Por lo tanto, la operatibilidad y funcionamiento de los futuros sistemas autónomos pende de nuestra capacidad para explotar GNSS y estimar soluciones de navegación robustas y precisas. Las señales GNSS permiten dos tipos de observaciones de alcance: –pseudorangos de código, que miden el tiempo transcurrido entre la emisión de las señales en los satélites y su acquisición en la tierra por parte de un receptor; –pseudorangos de fase de portadora, que miden la fase de la onda sinusoide que portan dichas señales y el número acumulado de ciclos completos. Los pseudorangos de código proporcionan una medida inequívoca de la distancia entre los satélites y el receptor, con una precisión de decímetros cuando no se tienen en cuenta los retrasos atmosféricos y los desfases del reloj. En contraposición, las observaciones de la portadora son super precisas, alcanzando el milímetro de exactidud, a expensas de ser ambiguas por un número entero y desconocido de ciclos. Por ende, el alcanzar la máxima precisión con GNSS queda condicionado al uso de las medidas de fase de la portadora, lo cual implica unos problemas de estimación de elevada complejidad. Esta tesis versa sobre la teoría de estimación relacionada con la provisión de navegación precisa basada en la fase de la portadora, especialmente para vehículos que transitan escenarios donde las señales no se propagan fácilmente, como es el caso de las ciudades. Para ello, primero se aborda la máxima efectividad del problema de localización, proponiendo cotas inferiores para el procesamiento de la señal en el receptor y para el problema de estimación mixto (es decir, cuando las incógnitas pertenecen al espacio de números reales y enteros). En segundo lugar, se consideran las configuraciones multiantena para el cálculo de la orientación de un vehículo, presentando un nuevo modelo para la estimación conjunta de posición y rumbo, y proponiendo estimadores deterministas y recursivos basados en la teoría de Lie. Por último, se explora el marco de la estadística robusta para proporcionar nuevas soluciones de navegación precisa, capaces de hacer frente a los ruidos atípicos.Programa de Doctorado en Ciencia y Tecnología Informática por la Universidad Carlos III de MadridPresidente: José Manuel Molina López.- Secretario: Giorgi Gabriele.- Vocal: Fabio Dovi

    Fortgeschrittene Methoden und Algorithmen für die computergestützte geodätische Datenanalyse

    Get PDF
    Die fortschreitende Digitalisierung mit ihren innovativen Technologien stellt zunehmende Anforderungen an Wirtschaft, Gesellschaft und Verwaltungen. Digitale Daten gelten als Schlüsselressource, die hohe Ansprüche u.a. an die Datenverarbeitung stellt, wie z. B. hohe Geschwindigkeit und Zuverlässigkeit. Besondere Bedeutung sind digitalen Daten mit Raumbezug beizumessen. Digitale Daten stammen im Bereich der Geodäsie und Geoinformatik von Multi-Sensor-Systemen, Satellitenmissionen, Smartphones, technischen Geräten, Computern oder von Datenbanken unterschiedlichster Institutionen und Behörden. „Big Data“ heißt der Trend und es gilt die enormen Datenmengen so breit und so effektiv wie möglich zu nutzen und mit Hilfe von computergestützten Tools, beispielsweise basierend auf künstlicher Intelligenz, auszuwerten. Um diese großen Datenmengen statistisch auszuwerten und zu analysieren, müssen laufend neue Modelle und Algorithmen entwickelt, getestet und validiert werden. Algorithmen erleichtern Geodätinnen und Geodäten seit Jahrzehnten das Leben - sie schätzen, entscheiden, wählen aus und bewerten die durchgeführten Analysen. Bei der geodätisch-statistischen Datenanalyse werden Beobachtungen zusammen mit Fachkenntnissen verwendet, um ein Modell zur Untersuchung und zum besseren Verständnis eines datengenerierenden Prozesses zu entwickeln. Die Datenanalyse wird verwendet, um das Modell zu verfeinern oder möglicherweise ein anderes Modell auszuwählen, um geeignete Werte für Modellterme zu bestimmen und um das Modell zu verwenden, oder um Aussagen über den Prozess zu treffen. Die Fortschritte in der Statistik in den vergangenen Jahren beschränken sich nicht nur auf die Theorie, sondern umfassen auch die Entwicklung von neuartigen computergestützten Methoden. Die Fortschritte in der Rechenleistung haben neuere und aufwendigere statistische Methoden ermöglicht. Eine Vielzahl von alternativen Darstellungen der Daten und von Modellen können untersucht werden. Wenn bestimmte statistische Modelle mathematisch nicht realisierbar sind, müssen Approximationsmethoden angewendet werden, die oft auf asymptotischer Inferenz basieren. Fortschritte in der Rechenleistung und Entwicklungen in der Theorie haben die computergestützte Inferenz zu einer praktikablen und nützlichen Alternative zu den Standardmethoden der asymptotischen Inferenz in der traditionellen Statistik werden lassen. Die computergestützte Inferenz basiert auf der Simulation statistischer Modelle. Die vorliegende Habilitationsschrift stellt die Ergebnisse der Forschungsaktivitäten des Autors im Bereich der statistischen und simulationsbasierten Inferenz für die geodätische Datenanalyse vor, die am Geodätischen Institut der Gottfried Wilhelm Leibniz Universität Hannover während der Zeit des Autors als Postdoktorand von 2009 bis 2019 publiziert wurden. Die Forschungsschwerpunkte in dieser Arbeit befassen sich mit der Entwicklung von mathematisch-statistischen Modellen, Schätzverfahren und computergestützten Algorithmen, um raum-zeitliche und möglicherweise unvollständige Daten, welche durch zufällige, systematische, ausreißerbehaftete und korrelierte Messabweichungen charakterisiert sind, rekursiv sowie nicht-rekursiv auszugleichen. Herausforderungen bestehen hierbei in der genauen, zuverlässigen und effizienten Schätzung der unbekannten Modellparameter, in der Ableitung von Qualitätsmaßen der Schätzung sowie in der statistisch-simulationsbasierten Beurteilung der Schätzergebnisse. Die Forschungsschwerpunkte haben verschiedene Anwendungsmöglichkeiten in den Bereichen der Ingenieurgeodäsie und der Immobilienbewertung gefunden
    corecore