35 research outputs found

    Channel estimation for massive MIMO TDD systems assuming pilot contamination and flat fading

    Get PDF
    Channel estimation is crucial for massive massive multiple-input multiple-output (MIMO) systems to scale up multi-user (MU) MIMO, providing great improvement in spectral and energy efficiency. This paper presents a simple and practical channel estimator for multi-cell MU massive MIMO time division duplex (TDD) systems with pilot contamination in flat Rayleigh fading channels, i.e., the gains of the channels follow the Rayleigh distribution. We also assume uncorrelated antennas. The proposed estimator addresses performance under moderate to strong pilot contamination without previous knowledge of the cross-cell large-scale channel coefficients. This estimator performs asymptotically as well as the minimum mean square error (MMSE) estimator with respect to the number of antennas. An approximate analytical mean square error (MSE) expression is also derived for the proposed estimator

    Channel estimation for massive MIMO TDD systems assuming pilot contamination and flat fading

    Get PDF
    Channel estimation is crucial for massive massive multiple-input multiple-output (MIMO) systems to scale up multi-user (MU) MIMO, providing great improvement in spectral and energy efficiency. This paper presents a simple and practical channel estimator for multi-cell MU massive MIMO time division duplex (TDD) systems with pilot contamination in flat Rayleigh fading channels, i.e., the gains of the channels follow the Rayleigh distribution. We also assume uncorrelated antennas. The proposed estimator addresses performance under moderate to strong pilot contamination without previous knowledge of the cross-cell large-scale channel coefficients. This estimator performs asymptotically as well as the minimum mean square error (MMSE) estimator with respect to the number of antennas. An approximate analytical mean square error (MSE) expression is also derived for the proposed estimator201

    Time-delay interferometric ranging for LISA: Statistical analysis of bias-free ranging using laser noise minimization

    Get PDF
    Die Laser Interferometer Space Antenna (LISA) ist eine Mission der europĂ€ischen Weltraumagentur (ESA) zur Detektion von Gravitationswellen im Frequenzbereich zwischen 10^-4 Hz und 1 Hz. Gravitationswellen induzieren relative AbstandsĂ€nderungen, die LISA mithilfe von Laserinterferometrie mit PicometerprĂ€zision misst. Ein großes Problem hierbei ist das Frequenzrauschen der Laser. Um dieses zu unterdrĂŒcken, ist es notwendig, mithilfe eines Algorithmus namens TDI (engl. time-delay interferometry), virtuelle Interferometer mit gleichlangen Armen zu konstruieren, wie z.B. das klassische Michelson-Interferometer. In dieser Arbeit untersuchen wir die Performanz von TDI unter realistischen Bedingungen und identifizieren verschiedene Kopplungsmechanismen des Laserfrequenzrauschens. Als erstes betrachten wir die Datenverarbeitung an Bord der Satelliten, die benötigt wird, um die Abtastrate der interferometrischen Messungen zu reduzieren. HierfĂŒr sind Anti-Alias-Filter vorgesehen, die der Faltung von Laserrauschleistung in das Beobachtungsband vorbeugen. Außerdem wirkt sich die Ebenheit der Filter auf die EffektivitĂ€t von TDI aus (engl. flexing-filtering-effect). Dieser Effekt ist bereits in der Literatur beschrieben und wir demonstrieren in dieser Arbeit die Möglichkeit, ihn mithilfe von Kompensationsfiltern effektiv zu reduzieren. Als zweites betrachten wir Kopplungsmechanismen von Laserfrequenzrauschen im TDI-Algorithmus selbst. Fehler in der Interpolation der interferometrischen Messungen und Ungenauigkeiten in den absoluten Abstandsmessungen zwischen den Satelliten fĂŒhren ebenfalls zu einer unzureichenden Reduzierung des Laserfrequenzrauschens. Wir beschreiben die oben genannten Kopplungsmechanismen analytisch und validieren die zugrundeliegenden Modelle mithilfe von numerischen Simulationen. Das tiefere VerstĂ€ndnis dieser Residuen ermöglicht es uns, geeignete instrumentelle Parameter zu wĂ€hlen, die von hoher Relevanz fĂŒr das Missionsdesign von LISA sind. Des Weiteren beschĂ€ftigen wir uns in dieser Arbeit mit der möglichst genauen Bestimmung der absoluten AbstĂ€nden zwischen den Satelliten, die fĂŒr den TDI Algorithmus erforderlich sind. HierfĂŒr werden die Abstandsinformationen aus den SeitenbĂ€ndern und der PRN-Modulation (engl. pseudo-random noise) kombiniert. Wir zeigen, dass die PRN-Messung von systematischen Verzerrungen betroffen ist, die zu Laserrauschresiduen in den TDI-Variablen fĂŒhren. Um diesen Fehler zu korrigieren, schlagen wir als zusĂ€tzliche Abstandsmessung TDI-Ranging (TDI-R) vor. TDI-R ist zwar ungenauer, aber frei von systematischen Verzerrungen und kann daher zur Kalibrierung der PRN-Messungen herangezogen werden. Wir prĂ€sentieren in dieser Arbeit eine ausfĂŒhrliche statistische Studie, um die Performanz von TDI-R zu charakterisieren. DafĂŒr formulieren wir die Likelihood-Funktion der interferometrischen Messungen und berechnen die Fisher-Informationsmatrix, um die theoretisch mögliche untere Grenze der SchĂ€tzvarianz zu finden. Diese verhĂ€lt sich invers proportional zur Integrationszeit und dem VerhĂ€ltnis von SekundĂ€rrauschleistung, die die interferometrische Messung fundamental limitiert, und Laserrauschleistung. ZusĂ€tzlich validieren wir die analytische untere Grenze der SchĂ€tzvarianz mithilfe von numerischen Simulationen und zeigen damit, dass unsere Implementierung von TDI-R optimal ist. Der entwickelte TDI-R-Algorithmus wird Teil der Datenverarbeitungspipeline sein und KonsistenzprĂŒfungen und Kalibrierung der primĂ€ren Abstandsmessmethoden ermöglichen.The Laser Interferometer Space Antenna (LISA) is a future ESA-led space-based observatory to explore the gravitational universe in the frequency band between 10^-4 Hz and 1 Hz. LISA implements picometer-precise inter-satellite ranging to measure tiny ripples in spacetime induced by gravitational waves (GWs). However, the single-link measurements are dominated by laser frequency noise, which is about nine orders of magnitude larger than the GW signals. Therefore, in post-processing, the time-delay interferometry (TDI) algorithm is used to synthesize virtual equal-arm interferometers to suppress laser frequency noise. In this work we identify several laser frequency noise coupling channels that limit the performance of TDI. First, the on-board processing, which is used to decimate the sampling rate from tens of megahertz down to the telemetry rate of a few hertz, requires careful design. Appropriate anti-aliasing filters must be implemented to mitigate folding of laser noise power into the observation band. Furthermore, the flatness of these filters is important to limit the impact of the flexing-filtering effect. We demonstrate that this effect can be effectively reduced by using compensation filters on ground. Second, the post-processing delays applied in TDI are subject to interpolation and ranging errors. We study these laser and timing noise residuals analytically and perform simulations to validate the models numerically. Our findings have direct implications for the design of the LISA instrument as we identify the instrumental parameters that are essential for successful laser noise suppression and provide methods for designing appropriate filters for the on-board processing. In addition, we discuss a dedicated ranging processing pipeline that produces high-precision range estimates that are the input for TDI by combining the sideband and pseudo-random noise (PRN) ranges. We show in this thesis that biases in the PRN measurements limit the laser noise suppression performance. Therefore, we propose time-delay interferometric ranging (TDI-R) as a third ranging sensor to estimate bias-free ranges that can be used to calibrate the biases in the PRN measurements. We present a thorough statistical study of TDI-R to evaluate its performance. Therefore, we formulate the likelihood function of the interferometric data and use the Fisher information formalism to find a lower bound on the estimation variance of the inter-satellite ranges. We find that the ranging uncertainty is proportional to the inverse of the integration time and the ratio of secondary noise power, that limits the interferometric readout, to the laser noise power. To validate our findings we implement prototype TDI-R pipelines and perform numerical simulations. We show that we are able to formulate optimal estimators of the unbiased range that reach the CramĂ©r-Rao lower bound previously expressed analytically. The developed TDI-R pipeline will be integrated into the ranging processing pipeline to perform consistency checks and ensure well-calibrated inter-satellite ranges

    Binokulare EigenbewegungsschĂ€tzung fĂŒr Fahrerassistenzanwendungen

    Get PDF
    Driving can be dangerous. Humans become inattentive when performing a monotonous task like driving. Also the risk implied while multi-tasking, like using the cellular phone while driving, can break the concentration of the driver and increase the risk of accidents. Others factors like exhaustion, nervousness and excitement affect the performance of the driver and the response time. Consequently, car manufacturers have developed systems in the last decades which assist the driver under various circumstances. These systems are called driver assistance systems. Driver assistance systems are meant to support the task of driving, and the field of action varies from alerting the driver, with acoustical or optical warnings, to taking control of the car, such as keeping the vehicle in the traffic lane until the driver resumes control. For such a purpose, the vehicle is equipped with on-board sensors which allow the perception of the environment and/or the state of the vehicle. Cameras are sensors which extract useful information about the visual appearance of the environment. Additionally, a binocular system allows the extraction of 3D information. One of the main requirements for most camera-based driver assistance systems is the accurate knowledge of the motion of the vehicle. Some sources of information, like velocimeters and GPS, are of common use in vehicles today. Nevertheless, the resolution and accuracy usually achieved with these systems are not enough for many real-time applications. The computation of ego-motion from sequences of stereo images for the implementation of driving intelligent systems, like autonomous navigation or collision avoidance, constitutes the core of this thesis. This dissertation proposes a framework for the simultaneous computation of the 6 degrees of freedom of ego-motion (rotation and translation in 3D Euclidean space), the estimation of the scene structure and the detection and estimation of independently moving objects. The input is exclusively provided by a binocular system and the framework does not call for any data acquisition strategy, i.e. the stereo images are just processed as they are provided. Stereo allows one to establish correspondences between left and right images, estimating 3D points of the environment via triangulation. Likewise, feature tracking establishes correspondences between the images acquired at different time instances. When both are used together for a large number of points, the result is a set of clouds of 3D points with point-to-point correspondences between clouds. The apparent motion of the 3D points between consecutive frames is caused by a variety of reasons. The most dominant motion for most of the points in the clouds is caused by the ego-motion of the vehicle; as the vehicle moves and images are acquired, the relative position of the world points with respect to the vehicle changes. Motion is also caused by objects moving in the environment. They move independently of the vehicle motion, so the observed motion for these points is the sum of the ego-vehicle motion and the independent motion of the object. A third reason, and of paramount importance in vision applications, is caused by correspondence problems, i.e. the incorrect spatial or temporal assignment of the point-to-point correspondence. Furthermore, all the points in the clouds are actually noisy measurements of the real unknown 3D points of the environment. Solving ego-motion and scene structure from the clouds of points requires some previous analysis of the noise involved in the imaging process, and how it propagates as the data is processed. Therefore, this dissertation analyzes the noise properties of the 3D points obtained through stereo triangulation. This leads to the detection of a bias in the estimation of 3D position, which is corrected with a reformulation of the projection equation. Ego-motion is obtained by finding the rotation and translation between the two clouds of points. This problem is known as absolute orientation, and many solutions based on least squares have been proposed in the literature. This thesis reviews the available closed form solutions to the problem. The proposed framework is divided in three main blocks: 1) stereo and feature tracking computation, 2) ego-motion estimation and 3) estimation of 3D point position and 3D velocity. The first block solves the correspondence problem providing the clouds of points as output. No special implementation of this block is required in this thesis. The ego-motion block computes the motion of the cameras by finding the absolute orientation between the clouds of static points in the environment. Since the cloud of points might contain independently moving objects and outliers generated by false correspondences, the direct computation of the least squares might lead to an erroneous solution. The first contribution of this thesis is an effective rejection rule that detects outliers based on the distance between predicted and measured quantities, and reduces the effects of noisy measurement by assigning appropriate weights to the data. This method is called Smoothness Motion Constraint (SMC). The ego-motion of the camera between two frames is obtained finding the absolute orientation between consecutive clouds of weighted 3D points. The complete ego-motion since initialization is achieved concatenating the individual motion estimates. This leads to a super-linear propagation of the error, since noise is integrated. A second contribution of this dissertation is a predictor/corrector iterative method, which integrates the clouds of 3D points of multiple time instances for the computation of ego-motion. The presented method considerably reduces the accumulation of errors in the estimated ego-position of the camera. Another contribution of this dissertation is a method which recursively estimates the 3D world position of a point and its velocity; by fusing stereo, feature tracking and the estimated ego-motion in a Kalman Filter system. An improved estimation of point position is obtained this way, which is used in the subsequent system cycle resulting in an improved computation of ego-motion. The general contribution of this dissertation is a single framework for the real time computation of scene structure, independently moving objects and ego-motion for automotive applications.Autofahren kann gefĂ€hrlich sein. Die Fahrleistung wird durch die physischen und psychischen Grenzen des Fahrers und durch externe Faktoren wie das Wetter beeinflusst. Fahrerassistenzsysteme erhöhen den Fahrkomfort und unterstĂŒtzen den Fahrer, um die Anzahl an UnfĂ€llen zu verringern. Fahrerassistenzsysteme unterstĂŒtzen den Fahrer durch Warnungen mit optischen oder akustischen Signalen bis hin zur Übernahme der Kontrolle ĂŒber das Auto durch das System. Eine der Hauptvoraussetzungen fĂŒr die meisten Fahrerassistenzsysteme ist die akkurate Kenntnis der Bewegung des eigenen Fahrzeugs. Heutzutage verfĂŒgt man ĂŒber verschiedene Sensoren, um die Bewegung des Fahrzeugs zu messen, wie zum Beispiel GPS und Tachometer. Doch Auflösung und Genauigkeit dieser Systeme sind nicht ausreichend fĂŒr viele Echtzeitanwendungen. Die Berechnung der Eigenbewegung aus Stereobildsequenzen fĂŒr Fahrerassistenzsysteme, z.B. zur autonomen Navigation oder Kollisionsvermeidung, bildet den Kern dieser Arbeit. Diese Dissertation prĂ€sentiert ein System zur Echtzeitbewertung einer Szene, inklusive Detektion und Bewertung von unabhĂ€ngig bewegten Objekten sowie der akkuraten SchĂ€tzung der sechs Freiheitsgrade der Eigenbewegung. Diese grundlegenden Bestandteile sind erforderlich, um viele intelligente Automobilanwendungen zu entwickeln, die den Fahrer in unterschiedlichen Verkehrssituationen unterstĂŒtzen. Das System arbeitet ausschließlich mit einer Stereokameraplattform als Sensor. Um die Eigenbewegung und die Szenenstruktur zu berechnen wird eine Analyse des Rauschens und der Fehlerfortpflanzung im Bildaufbereitungsprozess benötigt. Deshalb werden in dieser Dissertation die Rauscheigenschaften der durch Stereotriangulation erhaltenen 3D-Punkte analysiert. Dies fĂŒhrt zu der Entdeckung eines systematischen Fehlers in der SchĂ€tzung der 3D-Position, der sich mit einer Neuformulierung der Projektionsgleichung korrigieren lĂ€sst. Die Simulationsergebnisse zeigen, dass eine bedeutende Verringerung des Fehlers in der geschĂ€tzten 3D-Punktposition möglich ist. Die EigenbewegungsschĂ€tzung wird gewonnen, indem die Rotation und Translation zwischen Punktwolken geschĂ€tzt wird. Dieses Problem ist als „absolute Orientierung” bekannt und viele Lösungen auf Basis der Methode der kleinsten Quadrate sind in der Literatur vorgeschlagen worden. Diese Arbeit rezensiert die verfĂŒgbaren geschlossenen Lösungen zu dem Problem. Das vorgestellte System gliedert sich in drei wesentliche Bausteine: 1. Registrierung von Bildmerkmalen, 2. EigenbewegungsschĂ€tzung und 3. iterative SchĂ€tzung von 3D-Position und 3D-Geschwindigkeit von Weltpunkten. Der erster Block erhĂ€lt eine Folge rektifizierter Bilder als Eingabe und liefert daraus eine Liste von verfolgten Bildmerkmalen mit ihrer entsprechenden 3D-Position. Der Block „EigenbewegungsschĂ€tzung” besteht aus vier Hauptschritten in einer Schleife: 1. Bewegungsvorhersage, 2. Anwendung der Glattheitsbedingung fĂŒr die Bewegung (GBB), 3. absolute Orientierungsberechnung und 4. Bewegungsintegration. Die in dieser Dissertation vorgeschlagene GBB ist eine mĂ€chtige Bedingung fĂŒr die Ablehnung von Ausreißern und fĂŒr die Zuordnung von Gewichten zu den gemessenen 3D-Punkten. Simulationen werden mit gaußschem und slashschem Rauschen ausgefĂŒhrt. Die Ergebnisse zeigen die Überlegenheit der GBB-Version ĂŒber die Standardgewichtungsmethoden. Die StabilitĂ€t der Ergebnisse hinsichtlich Ausreißern wurde analysiert mit dem Resultat, dass der „break down point” grĂ¶ĂŸer als 50% ist. Wenn die vier Schritte iterativ ausgefĂŒhrt, werden wird ein PrĂ€diktor-Korrektor-Verfahren gewonnen.Wir nennen diese SchĂ€tzung Multi-frameschĂ€tzung im Gegensatz zur ZweiframeschĂ€tzung, die nur die aktuellen und vorherigen Bildpaare fĂŒr die Berechnung der Eigenbewegung betrachtet. Die erste Iteration wird zwischen der aktuellen und vorherigen Wolke von Punkten durchgefĂŒhrt. Jede weitere Iteration integriert eine zusĂ€tzliche Punktwolke eines vorherigen Zeitpunkts. Diese Methode reduziert die Fehlerakkumulation bei der Integration von mehreren SchĂ€tzungen in einer einzigen globalen SchĂ€tzung. Simulationsergebnisse zeigen, dass obwohl der Fehler noch superlinear im Laufe der Zeit zunimmt, die GrĂ¶ĂŸe des Fehlers um mehrere GrĂ¶ĂŸenordnungen reduziert wird. Der dritte Block besteht aus der iterativen SchĂ€tzung von 3D-Position und 3D-Geschwindigkeit von Weltpunkten. Hier wird eine Methode basierend auf einem Kalman Filter verwendet, das Stereo, Featuretracking und Eigenbewegungsdaten fusioniert. Messungen der Position eines Weltpunkts werden durch das Stereokamerasystem gewonnen. Die Differenzierung der Position des geschĂ€tzten Punkts erlaubt die zusĂ€tzliche SchĂ€tzung seiner Geschwindigkeit. Die Messungen werden durch das Messmodell gewonnen, das Stereo- und Bewegungsdaten fusioniert. Simulationsergebnisse validieren das Modell. Die Verringerung der Positionsunsicherheit im Laufe der Zeit wird mit einer Monte-Carlo Simulation erzielt. Experimentelle Ergebnisse werden mit langen Sequenzen von Bildern erzielt. ZusĂ€tzliche Tests, einschließlich einer 3D-Rekonstruktion einer Waldszene und der Berechnung der freien Kamerabewegung in einem Indoor-Szenario, wurden durchgefĂŒhrt. Die Methode zeigt gute Ergebnisse in allen FĂ€llen. Der Algorithmus liefert zudem akzeptable Ergebnisse bei der SchĂ€tzung der Lage kleiner Objekte, wie Köpfe und Beine von realen Crash-Test-Dummies

    A Joint Model and Data Driven Method for Distributed Estimation

    Full text link
    This paper considers the problem of distributed estimation in wireless sensor networks (WSN), which is anticipated to support a wide range of applications such as the environmental monitoring, weather forecasting, and location estimation. To this end, we propose a joint model and data driven distributed estimation method by designing the optimal quantizers and fusion center (FC) based on the Bayesian and minimum mean square error (MMSE) criterions. First, universal mean square error (MSE) lower bound for the quantization-based distributed estimation is derived and adopted as the design metric for the quantizers. Then, the optimality of the mean-fusion operation for the FC with MMSE criterion is proved. Next, by exploiting different levels of the statistic information of the desired parameter and observation noise, a joint model and data driven method is proposed to train parts of the quantizer and FC modules as deep neural networks (DNNs), and two loss functions derived from the MMSE criterion are adopted for the sequential training scheme. Furthermore, we extend the above results to the case with multi-bit quantizers, considering both the parallel and one-hot quantization schemes. Finally, simulation results reveal that the proposed method outperforms the state-of-the-art schemes in typical scenarios.Comment: in IEEE Internet of Things Journa

    Array Manifold Calibration for Multichannel SAR Sounders

    Get PDF
    This dissertation demonstrates airborne synthetic aperture radar (SAR) sounder array manifold calibration to improve outcomes in two-dimensional and three-dimensional image formation of ice sheet and glacier subsurfaces. The methodology relies on the creation of snapshot databases that aid in both the identification of calibration pixels as well as the validation of proposed calibration strategies. A parametric estimator of nonlinear SAR sounder manifold parameters is derived given a superset of statistically independent and spatially diverse subsets, assuming knowledge of the manifold model. Both measurements-based and computational electromagnetic modeling (CEM) approaches are pursued in obtaining a parametric representation of the manifold that enables the application of this estimator. The former relies on a principal components based characterization of SAR sounder manifolds. By incorporating a subspace clustering technique to identify pixels with a single dominant source, the algorithm circumvents an assumption of single source observations that underlies the formulation of nonparametric methods and traditionally limits the applicability of these techniques to the SAR sounder problem. Three manifolds are estimated and tested against a nominal manifold model in angle estimation and tomography. Measured manifolds on average reduce angle estimation error by a factor of 4.8 and lower vertical elevation uncertainty of SAR sounder derived digital elevation models by a factor of 3.7. Application of the measured manifolds in angle estimation produces 3-D images with more focused scattering signatures and higher intensity pixels that improve automated surface extraction outcomes. Measured manifolds are studied against Method of Moments predictions of the array's response to plane wave excitation obtained with a detailed model of the sounder's array that includes the airborne platform and fairing housing. CEM manifolds reduce angle estimation uncertainty off nadir on average by a factor of 3 when applied to measurements, providing initial confirmation of the utility of the CEM model in predicting angle estimation performance of the sounder's airborne arrays. The research findings of this dissertation indicate that SAR sounder manifold calibration will significantly increase the scientific value of legacy ice sheet and glacier sounding data sets and lead to optimized designs of future remote sensing instrumentation for surveying the cryosphere

    Distributed synchronization algorithms for wireless sensor networks

    Get PDF
    The ability to distribute time and frequency among a large population of interacting agents is of interest for diverse disciplines, inasmuch as it enables to carry out complex cooperative tasks. In a wireless sensor network (WSN), time/frequency synchronization allows the implementation of distributed signal processing and coding techniques, and the realization of coordinated access to the shared wireless medium. Large multi-hop WSN\u27s constitute a new regime for network synchronization, as they call for the development of scalable, fully distributed synchronization algorithms. While most of previous research focused on synchronization at the application layer, this thesis considers synchronization at the lowest layers of the communication protocol stack of a WSN, namely the physical and the medium access control (MAC) layer. At the physical layer, the focus is on the compensation of carrier frequency offsets (CFO), while time synchronization is studied for application at the MAC layer. In both cases, the problem of realizing network-wide synchronization is approached by employing distributed clock control algorithms based on the classical concept of coupled phase and frequency locked loops (PLL and FLL). The analysis takes into account communication, signaling and energy consumption constraints arising in the novel context of multi-hop WSN\u27s. In particular, the robustness of the algorithms is checked against packet collision events, infrequent sync updates, and errors introduced by different noise sources, such as transmission delays and clock frequency instabilities. By observing that WSN\u27s allow for greater flexibility in the design of the synchronization network architecture, this work examines also the relative merits of both peer-to-peer (mutually coupled - MC) and hierarchical (master-slave - MS) architectures. With both MC and MS architectures, synchronization accuracy degrades smoothly with the network size, provided that loop parameters are conveniently chosen. In particular, MS topologies guarantee faster synchronization, but they are hindered by higher noise accumulation, while MC topologies allow for an almost uniform error distribution at the price of much slower convergence. For all the considered cases, synchronization algorithms based on adaptive PLL and FLL designs are shown to provide robust and scalable network-wide time and frequency distribution in a WSN

    Quantum probes for minimum length estimation

    Get PDF
    In this thesis we address the estimation of the minimum length arising from gravitational theories. In particular, we use tools from Quantum Estimation theory to provide bounds on precision and to assess the use of quantum probes to enhance the estimation performances. After a brief introduction to classical estimation theory and to its quantum counterparts, we introduce the concept of minimum length and show how it induces a perturbative term appearing in the Hamiltonian of any quantum system, which is proportional to a parameter depending on the minimum length. We have then systematically studied the effects of this perturbation on different state preparations for several 1-dimensional systems, and evaluated the Quantum Fisher Information in order to find the ultimate bounds to the precision of any estimation procedure. Eventually, we have investigated the role of dimensionality on the precision, studying the 2-dimensional Harmonic oscillator. Our results provide a guideline to design possible future experiments to detect minimal length, and show the potential enhancement achievable using quantum probes

    Recent Advances in Wireless Communications and Networks

    Get PDF
    This book focuses on the current hottest issues from the lowest layers to the upper layers of wireless communication networks and provides "real-time" research progress on these issues. The authors have made every effort to systematically organize the information on these topics to make it easily accessible to readers of any level. This book also maintains the balance between current research results and their theoretical support. In this book, a variety of novel techniques in wireless communications and networks are investigated. The authors attempt to present these topics in detail. Insightful and reader-friendly descriptions are presented to nourish readers of any level, from practicing and knowledgeable communication engineers to beginning or professional researchers. All interested readers can easily find noteworthy materials in much greater detail than in previous publications and in the references cited in these chapters

    Model-based Filtering of Interfering Signals in Ultrasonic Time Delay Estimations

    Get PDF
    In dieser Arbeit werden modellbasierte algorithmische AnsĂ€tze zur Interferenz-invarianten ZeitverschiebungsschĂ€tzung vorgestellt, die speziell fĂŒr die SchĂ€tzung kleiner Zeitverschiebungsdifferenzen mit einer notwendigen Auflösung, die deutlich unterhalb der Abtastzeit liegt, geeignet sind. Daher lassen sich die Verfahren besonders gut auf die Laufzeit-basierte Ultraschalldurchflussmessung anwenden, da hier das Problem der Interferenzsignale besonders ausgeprĂ€gt ist. Das Hauptaugenmerk liegt auf der Frage, wie mehrere Messungen mit unterschiedlichen Zeitverschiebungen oder Prozessparametern zur UnterdrĂŒckung der Interferenzsignale in Ultraschalldurchflussmessungen verwendet werden können, wobei eine gute Robustheit gegenĂŒber additivem weißen Gauß\u27schen Rauschen und eine hohe Auflösung erhalten bleiben sollen. Zu diesem Zweck wird ein Signalmodell angenommen, welches aus stationĂ€ren Interferenzsignalen, die nicht von wechselnden Zeitverschiebungen abhĂ€ngig sind, und aus Zielsignalen, die den Messeffekt enthalten, besteht. ZunĂ€chst wird das Signalmodell einer Ultraschalldurchflussmessung und sein dynamisches Verhalten bei Temperatur- oder Zeitverschiebungsschwankungen untersucht. Ziel ist es, valide SimulationsdatensĂ€tze zu erzeugen, mit denen die entwickelten Methoden sowohl unter der PrĂ€misse, dass die Daten perfekt zum Signalmodell passen, als auch unter der PrĂ€misse, dass Modellfehler vorliegen, getestet werden können. Dabei werden die Eigenschaften der Signalmodellkomponenten, wie Bandbreite, StationaritĂ€t und TemperaturabhĂ€ngigkeit, identifiziert. Zu diesem Zweck wird eine neue Methode zur Modellierung der TemperaturabhĂ€ngigkeit der Interferenzsignale vorgestellt. Nach der Charakterisierung des gesamten Messsystems wird das Signalmodell -- angepasst an die Ultraschalldurchflussmessung -- als Grundlage fĂŒr zwei neue Methoden verwendet, deren Ziel es ist, die Auswirkungen der Interferenzsignale zu reduzieren. Die erste vorgeschlagene Technik erweitert die auf der Signaldynamik basierenden AnsĂ€tze in der Literatur, indem sie die Voraussetzungen fĂŒr die erforderliche Varianz der Zeitverschiebungen abschwĂ€cht. Zu diesem Zweck wird eine neue Darstellung von mehreren Messsignalen als Punktwolken eingefĂŒhrt. Die Punktwolken werden dann mithilfe der Hauptkomponentenanalyse und B-Splines verarbeitet, was entweder zu Interferenz-invarianten ZeitverschiebungsschĂ€tzungen oder geschĂ€tzten Interferenzsignalen fĂŒhrt. In diesem Zusammenhang wird eine neuartige gemeinsame B-Spline- und RegistrierungsschĂ€tzung entwickelt, um die Robustheit zu erhöhen. Der zweite Ansatz besteht in einer regressionsbasierten SchĂ€tzung der Zeitverschiebungsdifferenzen durch das Erlernen angepasster SignalunterrĂ€ume. Diese UnterrĂ€ume werden effizient durch die Analytische Wavelet Packet Transformation berechnet, bevor die resultierenden Koeffizienten in Merkmale transformiert werden, die gut mit den Zeitverschiebungssdifferenzen korrelieren. DarĂŒber hinaus wird ein neuartiger, unbeaufsichtigter Unterraum-Trainingsansatz vorgeschlagen und mit den konventionellen Filter- und Wrapper-basierten Merkmalsauswahlmethoden verglichen. Schließlich werden beide Methoden in einem experimentellen Ultraschalldurchflussmesssystem mit einem hohen Maß an vorhandenen Interferenzsignalen getestet, wobei sich zeigt, dass sie in den meisten FĂ€llen den Methoden aus der Literatur ĂŒberlegen sind. Die QualitĂ€t der Methoden wird anhand der Genauigkeit der ZeitverschiebungsschĂ€tzung bewertet, da die Grundwahrheit fĂŒr die Interferenzsignale nicht zuverlĂ€ssig bestimmt werden kann. Anhand verschiedener DatensĂ€tze werden die AbhĂ€ngigkeiten von den Hyperparametern, den Prozessbedingungen und, im Falle der regressionsbasierten Methode, dem Trainingsdatensatz analysiert
    corecore