327 research outputs found
Advanced array signal processing algorithms for multi-dimensional parameter estimation
Multi-dimensional high-resolution parameter estimation is a fundamental problem in a variety of array signal processing applications, including radar, mobile communications, multiple-input multiple-output (MIMO) channel estimation, and biomedical imaging. The objective is to estimate the frequency parameters of noise-corrupted multi-dimensional harmonics that are sampled on a multi-dimensional grid. Among the proposed parameter estimation algorithms to solve this problem, multi-dimensional (R-D) ESPRIT-type algorithms have been widely used due to their computational efficiency and their simplicity. Their performance in various scenarios has been objectively evaluated by means of an analytical performance assessment framework. Recently, a relatively new class of parameter estimators based on sparse signal reconstruction has gained popularity due to their robustness under challenging conditions such as a small sample size or strong signal correlation. A common approach towards further improving the performance of parameter estimation algorithms is to exploit prior knowledge on the structure of the signals. In this thesis, we develop enhanced versions of R-D ESPRIT-type algorithms and the relatively new class of sparsity-based parameter estimation algorithms by exploiting the multi-dimensional structure of the signals and the statistical properties of strictly non-circular (NC) signals.
First, we derive analytical expressions for the gain from forward-backward averaging and tensor-based processing in R-D ESPRIT-type and R-D Tensor-ESPRIT-type algorithms for the special case of two sources. This is accomplished by simplifying the generic analytical MSE expressions from the performance analysis of R-D ESPRIT-type algorithms. The derived expressions allow us to identify the parameter settings, e.g., the number of sensors, the signal correlation, and the source separation, for which both gains are most pronounced or no gain is achieved.
Second, we propose the generalized least squares (GLS) algorithm to solve the overdetermined shift invariance equation in R-D ESPRIT-type algorithms. GLS directly incorporates the statistics of the subspace estimation error into the shift invariance solution through its covariance matrix, which is found via a first-order perturbation expansion. To objectively assess the estimation accuracy, we derive performance analysis expressions for the mean square error (MSE) of GLS-based ESPRIT-type algorithms, which are asymptotic in the effective SNR, i.e., the results become exact for a high SNR or a small sample size. Based on the performance analysis, we show that the simplified MSE expressions of GLS-based 1-D ESPRIT-type algorithms for a single source and two sources can be transformed into the corresponding Cramer-Rao bound (CRB) expressions, which provide a lower limit on the estimation error. Thereby, ESPRIT-type algorithms can become asymptotically efficient, i.e., they asymptotically achieve the CRB. Numerical simulations show that this can also be the case for more than two sources.
In the third contribution, we derive matrix-based and tensor-based R-D NC ESPRIT-type algorithms for multi-dimensional strictly non-circular signals, where R-D NC Tensor-ESPRIT-type algorithms exploit both the multi-dimensional structure and the strictly non-circular structure of the signals. Exploiting the NC signal structure by means of a preprocessing step leads to a virtual doubling of the original sensor array, which provides an improved estimation accuracy and doubles the number of resolvable signals. We derive an analytical performance analysis and compute simplified MSE expressions for a single source and two sources. These expressions are used to analytically compute the NC gain for these cases, which has so far only been studied via Monte-Carlo simulations. We additionally consider spatial smoothing preprocessing for R-D ESPRIT-type algorithms, which has been widely used to improve the estimation performance for highly correlated signals or a small sample size. Once more, we derive performance analysis expressions for R-D ESPRIT-type algorithms and their corresponding NC versions with spatial smoothing and derive the optimal number of subarrays for spatial smoothing that minimizes the MSE for a single source.
In the next part, we focus on the relatively new concept of parameter estimation via sparse signal reconstruction (SSR), in which the sparsity of the received signal power spectrum in the spatio-temporal domain is exploited. We develop three NC SSR-based parameter estimation algorithms for strictly noncircular sources and show that the benefits of exploiting the signals’ NC structure can also be achieved via sparse reconstruction. We develop two grid-based NC SSR algorithms with a low-complexity off-grid estimation procedure, and a gridless NC SSR algorithm based on atomic norm minimization.
As the final contribution of this thesis, we derive the deterministic R-D NC CRB for strictly non-circular sources, which serves as a benchmark for the presented R-D NC ESPRIT-type algorithms and the NC SSR-based parameter estimation algorithms. We show for the special cases of, e.g., full coherence, a single snapshot, or a single strictly non-circular source, that the deterministic R-D NC CRB reduces to the existing deterministic R-D CRB for arbitrary signals. Therefore, no NC gain can be achieved in these cases. For the special case of two closely-spaced NC sources, we simplify the NC CRB expression and compute the NC gain for two closely-spaced NC signals. Finally, its behavior in terms of the physical parameters is studied to determine the parameter settings that provide the largest NC gain.Die hochauflösende Parameterschätzung für mehrdimensionale Signale findet Anwendung in vielen Bereichen der Signalverarbeitung in Mehrantennensystemen. Zu den Anwendungsgebieten zählen beispielsweise Radar, die Mobilkommunikation, die Kanalschätzung in multiple-input multiple-output (MIMO)-Systemen und bildgebende Verfahren in der Biosignalverarbeitung. In letzter Zeit sind eine Vielzahl von Algorithmen zur Parameterschätzung entwickelt worden, deren Schätzgenauigkeit durch eine analytische Beschreibung der Leistungsfähigkeit objektiv bewertet werden kann. Eine verbreitete Methode zur Verbesserung der Schätzgenauigkeit von Parameterschätzverfahren ist die Ausnutzung von Vorwissen bezüglich der Signalstruktur. In dieser Arbeit werden mehrdimensionale ESPRIT-Verfahren als Beispiel für Unterraum-basierte Verfahren entwickelt und analysiert, die explizit die mehrdimensionale Signalstruktur mittels Tensor-Signalverarbeitung ausnutzt und die statistischen Eigenschaften von nicht-zirkulären Signalen einbezieht. Weiterhin werden neuartige auf Signalrekonstruktion basierende Algorithmen vorgestellt, die die nicht-zirkuläre Signalstruktur bei der Rekonstruktion ausnutzen. Die vorgestellten Verfahren ermöglichen eine deutlich verbesserte Schätzgüte und verdoppeln die Anzahl der auflösbaren Signale. Die Vielzahl der Forschungsbeiträge in dieser Arbeit setzt sich aus verschiedenen Teilen zusammen.
Im ersten Teil wird die analytische Beschreibung der Leistungsfähigkeit von Matrix-basierten und Tensor-basierten ESPRIT-Algorithmen betrachtet. Die Tensor-basierten Verfahren nutzen explizit die mehrdimensionale Struktur der Daten aus. Es werden für beide Algorithmenarten vereinfachte analytische Ausdrücke für den mittleren quadratischen Schätzfehler für zwei Signalquellen hergeleitet, die lediglich von den physikalischen Parametern, wie zum Beispiel die Anzahl der Antennenelemente, das Signal-zu-Rausch-Verhältnis, oder die Anzahl der Messungen, abhängen. Ein Vergleich dieser Ausdrücke ermöglicht die Berechnung einfacher Ausdrücke für den Schätzgenauigkeitsgewinn durch den forward-backward averaging (FBA)-Vorverarbeitungsschritt und die Tensor-Signalverarbeitung, die die analytische Abhängigkeit von den physikalischen Parametern enthalten.
Im zweiten Teil entwickeln wir einen neuartigen general least squares (GLS)-Ansatz zur Lösung der Verschiebungs-Invarianz-Gleichung, die die Grundlage der ESPRIT-Algorithmen darstellt. Der neue Lösungsansatz berücksichtigt die statistische Beschreibung des Fehlers bei der Unterraumschätzung durch dessen Kovarianzmatrix und ermöglicht unter bestimmten Annahmen eine optimale Lösung der Invarianz-Gleichung. Mittels einer Performanzanalyse der GLS-basierten ESPRIT-Verfahren und der Vereinfachung der analytischen Ausdrücke für den Schätzfehler für eine Signalquelle und zwei zeitlich unkorrelierte Signalquellen wird gezeigt, dass die Cramer-Rao-Schranke, eine untere Schranke für die Varianz eines Schätzers, erreicht werden kann.
Im nächsten Teil werden Matrix-basierte und Tensor-basierte ESPRIT-Algorithmen für nicht-zirkuläre Signalquellen vorgestellt. Unter Ausnutzung der Signalstruktur gelingt es, die Schätzgenauigkeit zu erhöhen und die doppelte Anzahl an Quellen aufzulösen. Dabei ermöglichen die vorgeschlagenen Tensor-ESPRIT-Verfahren sogar die gleichzeitige Ausnutzung der mehrdimensionalen Signalstruktur und der nicht-zirkuläre Signalstruktur. Die Leistungsfähigkeit dieser Verfahren wird erneut durch eine analytische Beschreibung objektiv bewertet und Spezialfälle für eine und zwei Quellen betrachtet. Es zeigt sich, dass für eine Quelle keinerlei Gewinn durch die nicht-zirkuläre Struktur erzielen lässt. Für zwei nicht-zirkuläre Quellen werden vereinfachte Ausdrücke für den Gewinn sowohl im Matrixfall also auch im Tensorfall hergeleitet und die Abhängigkeit der physikalischen Parameter analysiert. Sind die Signale stark korreliert oder ist die Anzahl der Messdaten sehr gering, kann der spatial smoothing-Vorverarbeitungsschritt mit den verbesserten ESPRIT-Verfahren kombiniert werden. Anhand der Performanzanalyse wird die Anzahl der Mittellungen für das spatial smoothing-Verfahren analytisch für eine Quelle bestimmt, die den Schätzfehler minimiert.
Der nächste Teil befasst sich mit einer vergleichsweise neuen Klasse von Parameterschätzverfahren, die auf der Rekonstruktion überlagerter dünnbesetzter Signale basiert. Als Vorteil gegenüber den Algorithmen, die eine Signalunterraumschätzung voraussetzen, sind die Rekonstruktionsverfahren verhältnismäßig robust im Falle einer geringen Anzahl zeitlicher Messungen oder einer starken Korrelation der Signale. In diesem Teil der vorliegenden Arbeit werden drei solcher Verfahren entwickelt, die bei der Rekonstruktion zusätzlich die nicht-zirkuläre Signalstruktur ausnutzen. Dadurch kann auch für diese Art von Verfahren eine höhere Schätzgenauigkeit erreicht werden und eine höhere Anzahl an Signalen rekonstruiert werden.
Im letzten Kapitel der Arbeit wird schließlich die Cramer-Rao-Schranke für mehrdimensionale nicht-zirkuläre Signale hergeleitet. Sie stellt eine untere Schranke für den Schätzfehler aller Algorithmen dar, die speziell für die Ausnutzung dieser Signalstruktur entwickelt wurden. Im Vergleich zur bekannten Cramer-Rao-Schranke für beliebige Signale, zeigt sich, dass im Fall von zeitlich kohärenten Signalen, für einen Messvektor oder für eine Quelle, beide Schranken äquivalent sind. In diesen Fällen kann daher keine Verbesserung der Schätzgüte erzielt werden. Zusätzlich wird die Cramer-Rao-Schranke für zwei benachbarte nicht-zirkuläre Signalquellen vereinfacht und der maximal mögliche Gewinn in Abhängigkeit der physikalischen Parameter analytisch ermittelt. Dieser Ausdruck gilt als Maßstab für den erzielbaren Gewinn aller Parameterschätzverfahren für zwei nicht-zirkuläre Signalquellen
Numerical modelling of multi-phase multi-component reactive transport in the Earth's interior
This is a pre-copyedited, author-produced PDF of an article accepted for publication in
Geophysical journal international following peer review. The version of record Oliveira, B.,
Afonso, J., Zlotnik, S., Diez, P. Numerical modelling of multi-phase multi-component reactive transport in the Earth's interior. "Geophysical journal international", 1 Gener 2018, vol. 212, nĂşm. 1, p. 345-388 is available online at: https://doi.org/10.1093/gji/ggx399.We present a conceptual and numerical approach to model processes in the Earth's interior that involve multiple phases that simultaneously interact thermally, mechanically and chemically. The approach is truly multiphase in the sense that each dynamic phase is explicitly modelled with an individual set of mass, momentum, energy and chemical mass balance equations coupled via interfacial interaction terms. It is also truly multi-component in the sense that the compositions of the system and its constituent thermodynamic phases are expressed by a full set of fundamental chemical components (e.g. SiO, AlO, MgO, etc) rather than proxies. In contrast to previous approaches these chemical components evolve, react with, and partition into, different phases with different physical properties according to an internally-consistent thermodynamic model. This enables a thermodynamically-consistent coupling of the governing set of balance equations. Interfacial processes such as surface tensions and/or surface energy contributions to the dynamics and energetics of the system are also taken into account. The model presented here describes the evolution of systems governed by Multi-Phase Multi-Component Reactive Transport (MPMCRT) based on Ensemble Averaging and Classical Irreversible Thermodynamics principles. This novel approach provides a flexible platform to study the dynamics and non-linear feedbacks occurring within various natural systems at different scales. This notably includes major-and trace-element transport, diffusion-controlled trace-element re-equilibration or rheological changes associated with melt generation and migration in the Earth's mantle.Peer ReviewedPostprint (author's final draft
Gravitational collisions and the quark-gluon plasma
This thesis addresses the thermalisation of heavy-ion collisions within the
context of the AdS/CFT duality. The first part clarifies the numerical set-up
and studies the relaxation of far-from-equilibrium modes in homogeneous
systems. Less trivially we then study colliding shock waves and uncover a
transparent regime where the strongly coupled shocks initially pass right
through each other. Furthermore, in this regime the later plasma relaxation is
insensitive to the longitudinal profile of the shock, implying in particular a
universal rapidity shape at strong coupling and high collision energies.
Lastly, we study radial expansion in a boost-invariant set-up, allowing us to
find good agreement with head-on collisions performed at the LHC accelerator.
As a secondary goal of this thesis, a special effort is made to clearly
expose numerical computations by providing commented Mathematica notebooks for
most calculations presented. Furthermore, we provide interpolating functions of
the geometries computed, which can be of use in other projects.Comment: PhD thesis, 100 pages, 80 figures.
http://dspace.library.uu.nl/handle/1874/294809 , Mathematica notebooks can be
found at sites.google.com/site/wilkevanderschee/phd-thesi
Concept innovant d'échangeur/réacteur multifonctionnel par contrôle dynamique passif par générateurs de vorticité flexibles
The aim of this study is to investigate the use of fluid-structure interaction (FSI) to improve heat transfer and mixing performances in multi-functional heat exchangers/reactors, and to evaluate configuration designs where the main target is to produce and maintain self-sustained oscillations of flexible vortex generators. At first, two dimensional laminar flow studies are numerically investigated. The results show that a minimum of three alternating flaps is needed to produce an instability that leads to large displacement oscillations. However, the introduction of two co-planar flaps upstream destabilizes the flow by creating periodic forces that act on the alternating downstream flaps. Hence, this results in artificially increasing the reduced velocity that will induce the alternating flaps to be in a lock-in state. Thus in this case, large displacement amplitudes are created with two alternating flaps only. The free flaps oscillations produce vortices of higher strength which have a positive impact on heat transfer and mixing. Secondly, a three dimensional HEV configuration with flexible trapezoidal vortex generators inclined with an angle of 45◦ with respect to the wall and reversed opposite to the flow direction is numerically investigated. Fast Fourier Transformation is applied on the temporal variation of the Proper Orthogonal Decomposition (POD) coefficientswhich displays a dominant peak in the flow and corresponds to the vortices periodic formation and detachment. This dominant frequency synchronizes well with the structural oscillation frequency and the fundamental frequency of the tabs reaching a lock-in state and leading to large oscillation amplitudes.Le but de cette étude est d’étudier l’utilisation d’interactions fluide-structure (FSI) pour améliorer le transfert de chaleur et les performances de mélange dans des échangeurs-réacteurs multifonctionnels, et d’évaluer des configurations pour lesquelles l’objectif est de produire et de maintenir un régime dynamique auto-entretenu d’oscillations des générateurs de tourbillons flexibles. Dans un premier temps, deux études numériques ont été réalisées pour des écoulements laminaires bidimensionnels. Les résultats montrent qu’un minimum de trois générateurs de tourbillons alternés est nécessaire pour produire une instabilité qui engendre les oscillations de larges amplitudes. L’ajout de deux promoteurs coplanaires en amont déstabilise l’écoulement en créant des forces périodiques agissant sur les générateurs de tourbillons en aval. Il en résulte une augmentation de la vitesse réduite qui impose un blocage en fréquence des oscillations des générateurs de tourbillons en aval. Dans cette configuration, des oscillations de larges amplitudes sont obtenues pour uniquement deux générateurs de tourbillons en aval. Les oscillations des générateurs de tourbillons produisent une vorticité intense qui a une incidence positive que le transfert de chaleur et sur le mélange. Dans un second temps, une configuration tridimensionnelle HEV incluant des générateurs de tourbillons trapézoïdaux flexibles orientés a 45◦ vers l’amont est étudiée par simulations numériques. Une analyse FFT réalisée sur les coefficients issus d’une analyse POD montre un pic fréquentiel correspondant aux formations et lâchers tourbillonnaires périodiques. Cette fréquence dominante correspond bien au mode propre d’oscillation des générateurs de tourbillons et engendre ainsi de larges amplitudes d’oscillations
Enhancing multi-scale cardiac simulations by coupling electrophysiology and mechanics: a flexible high performance approach to cardiac electromechanics
This work focuses on the development of computational methods for the simulation of the propagation of the electrical potential in the heart and of the resulting mechanical contraction. The interaction of these two physical phenomena is described by an electromechanical model which consists of the monodomain system, which describes the propagation of the action potential in the cardiac tissue, and the equations of incompressible elasticity, which describe its mechanical response. In fully-coupled electromechanical simulations, two main computational challenges are usually identified in literature: the time integration of the monodomain system and the efficient solution of the equations of incompressible elasticity. These two are the actual bottlenecks in the realization of accurate and efficient fully-coupled electromechanical simulations. The first computational challenge arises from the discretization in time of the equations that describe the electrical activation of cardiac tissue. The monodomain system should be discretized employing both fine spatial grids and small time-steps, to capture the spatial steep gradients typical of the action potential and the behavior of the stiff gating variables, respectively. To obtain an accurate and computationally-cheap numerical solution, we propose a novel method based on coupling high-order backward differentiation formulae with high-order exponential time stepping schemes for the time integration of the monodomain system. We propose a novel quasi-Newton approach for the implicit discretization of the monodomain equation. We also compare this latter approach against a complex step differentiation-based approach. As a result, we show by means of numerical tests the accuracy of the developed strategies and how the use of high-order time integration schemes affects the simulation of post- processed quantities of clinical relevance such as the conduction velocity. The second computational challenge is due to the structure the discretization of the equations of incompressible elasticity. Due to the incompressibility constraint, the arising linear system has a saddle point structure for which standard solution methods such as multigrid or domain de- composition do not provide optimal convergence if not properly adapted. In order to overcome this problematic, we propose a segregated multigrid preconditioned solution method. The segregated approach allows to recast the saddle-point problem into two elliptic problems for which multigrid methods are shown to provide optimal convergence. The electromechanical model is employed to evaluate the effects of geometrical changes due to the contraction of the heart on simulated electrocardiograms. Finally, the effect of different electrical activations on the resulting pressure-volume loops is investigated by coupling the electromechanical model with a lumped model of the circulatory system
Advanced Algebraic Concepts for Efficient Multi-Channel Signal Processing
Unsere moderne Gesellschaft ist Zeuge eines fundamentalen Wandels in der Art und Weise
wie wir mit Technologie interagieren. Geräte werden zunehmend intelligenter - sie verfügen
über mehr und mehr Rechenleistung und häufiger über eigene Kommunikationsschnittstellen.
Das beginnt bei einfachen Haushaltsgeräten und reicht über Transportmittel bis zu großen
ĂĽberregionalen Systemen wie etwa dem Stromnetz. Die Erfassung, die Verarbeitung und der
Austausch digitaler Informationen gewinnt daher immer mehr an Bedeutung. Die Tatsache,
dass ein wachsender Anteil der Geräte heutzutage mobil und deshalb batteriebetrieben ist,
begrĂĽndet den Anspruch, digitale Signalverarbeitungsalgorithmen besonders effizient zu gestalten.
Dies kommt auch dem Wunsch nach einer Echtzeitverarbeitung der groĂźen anfallenden
Datenmengen zugute.
Die vorliegende Arbeit demonstriert Methoden zum Finden effizienter algebraischer Lösungen
für eine Vielzahl von Anwendungen mehrkanaliger digitaler Signalverarbeitung. Solche Ansätze
liefern nicht immer unbedingt die bestmögliche Lösung, kommen dieser jedoch häufig recht
nahe und sind gleichzeitig bedeutend einfacher zu beschreiben und umzusetzen. Die einfache
Beschreibungsform ermöglicht eine tiefgehende Analyse ihrer Leistungsfähigkeit, was für den
Entwurf eines robusten und zuverlässigen Systems unabdingbar ist. Die Tatsache, dass sie nur
gebräuchliche algebraische Hilfsmittel benötigen, erlaubt ihre direkte und zügige Umsetzung
und den Test unter realen Bedingungen.
Diese Grundidee wird anhand von drei verschiedenen Anwendungsgebieten demonstriert.
Zunächst wird ein semi-algebraisches Framework zur Berechnung der kanonisch polyadischen
(CP) Zerlegung mehrdimensionaler Signale vorgestellt. Dabei handelt es sich um ein sehr
grundlegendes Werkzeug der multilinearen Algebra mit einem breiten Anwendungsspektrum
von Mobilkommunikation ĂĽber Chemie bis zur Bildverarbeitung. Verglichen mit existierenden
iterativen Lösungsverfahren bietet das neue Framework die Möglichkeit, den Rechenaufwand
und damit die Güte der erzielten Lösung zu steuern. Es ist außerdem weniger anfällig gegen eine
schlechte Konditionierung der Ausgangsdaten. Das zweite Gebiet, das in der Arbeit besprochen
wird, ist die unterraumbasierte hochauflösende Parameterschätzung für mehrdimensionale Signale,
mit Anwendungsgebieten im RADAR, der Modellierung von Wellenausbreitung, oder
bildgebenden Verfahren in der Medizin. Es wird gezeigt, dass sich derartige mehrdimensionale
Signale mit Tensoren darstellen lassen. Dies erlaubt eine natĂĽrlichere Beschreibung und eine
bessere Ausnutzung ihrer Struktur als das mit Matrizen möglich ist. Basierend auf dieser Idee
entwickeln wir eine tensor-basierte Schätzung des Signalraums, welche genutzt werden kann
um beliebige existierende Matrix-basierte Verfahren zu verbessern. Dies wird im Anschluss
exemplarisch am Beispiel der ESPRIT-artigen Verfahren gezeigt, fĂĽr die verbesserte Versionen
vorgeschlagen werden, die die mehrdimensionale Struktur der Daten (Tensor-ESPRIT),
nichzirkuläre Quellsymbole (NC ESPRIT), sowie beides gleichzeitig (NC Tensor-ESPRIT) ausnutzen.
Um die endgültige Schätzgenauigkeit objektiv einschätzen zu können wird dann ein
Framework für die analytische Beschreibung der Leistungsfähigkeit beliebiger ESPRIT-artiger
Algorithmen diskutiert. Verglichen mit existierenden analytischen AusdrĂĽcken ist unser Ansatz
allgemeiner, da keine Annahmen ĂĽber die statistische Verteilung von Nutzsignal und
Rauschen benötigt werden und die Anzahl der zur Verfügung stehenden Schnappschüsse beliebig
klein sein kann. Dies fĂĽhrt auf vereinfachte AusdrĂĽcke fĂĽr den mittleren quadratischen
Schätzfehler, die Schlussfolgerungen über die Effizienz der Verfahren unter verschiedenen Bedingungen
zulassen. Das dritte Anwendungsgebiet ist der bidirektionale Datenaustausch mit
Hilfe von Relay-Stationen. Insbesondere liegt hier der Fokus auf Zwei-Wege-Relaying mit Hilfe
von Amplify-and-Forward-Relays mit mehreren Antennen, da dieser Ansatz ein besonders gutes
Kosten-Nutzen-Verhältnis verspricht. Es wird gezeigt, dass sich die nötige Kanalkenntnis
mit einem einfachen algebraischen Tensor-basierten Schätzverfahren gewinnen lässt. Außerdem
werden Verfahren zum Finden einer günstigen Relay-Verstärkungs-Strategie diskutiert. Bestehende
Ansätze basieren entweder auf komplexen numerischen Optimierungsverfahren oder auf
Ad-Hoc-Ansätzen die keine zufriedenstellende Bitfehlerrate oder Summenrate liefern. Deshalb
schlagen wir algebraische Ansätze zum Finden der Relayverstärkungsmatrix vor, die von relevanten
Systemmetriken inspiriert sind und doch einfach zu berechnen sind. Wir zeigen das
algebraische ANOMAX-Verfahren zum Erreichen einer niedrigen Bitfehlerrate und seine Modifikation
RR-ANOMAX zum Erreichen einer hohen Summenrate. FĂĽr den Spezialfall, in dem
die Endgeräte nur eine Antenne verwenden, leiten wir eine semi-algebraische Lösung zum
Finden der Summenraten-optimalen Strategie (RAGES) her. Anhand von numerischen Simulationen
wird die Leistungsfähigkeit dieser Verfahren bezüglich Bitfehlerrate und erreichbarer
Datenrate bewertet und ihre Effektivität gezeigt.Modern society is undergoing a fundamental change in the way we interact with technology.
More and more devices are becoming "smart" by gaining advanced computation capabilities
and communication interfaces, from household appliances over transportation systems to large-scale
networks like the power grid. Recording, processing, and exchanging digital information
is thus becoming increasingly important. As a growing share of devices is nowadays mobile
and hence battery-powered, a particular interest in efficient digital signal processing techniques
emerges.
This thesis contributes to this goal by demonstrating methods for finding efficient algebraic
solutions to various applications of multi-channel digital signal processing. These may not
always result in the best possible system performance. However, they often come close while
being significantly simpler to describe and to implement. The simpler description facilitates a
thorough analysis of their performance which is crucial to design robust and reliable systems.
The fact that they rely on standard algebraic methods only allows their rapid implementation
and test under real-world conditions.
We demonstrate this concept in three different application areas. First, we present a semi-algebraic
framework to compute the Canonical Polyadic (CP) decompositions of multidimensional
signals, a very fundamental tool in multilinear algebra with applications ranging from
chemistry over communications to image compression. Compared to state-of-the art iterative
solutions, our framework offers a flexible control of the complexity-accuracy trade-off and
is less sensitive to badly conditioned data. The second application area is multidimensional
subspace-based high-resolution parameter estimation with applications in RADAR, wave propagation
modeling, or biomedical imaging. We demonstrate that multidimensional signals can
be represented by tensors, providing a convenient description and allowing to exploit the
multidimensional structure in a better way than using matrices only. Based on this idea,
we introduce the tensor-based subspace estimate which can be applied to enhance existing
matrix-based parameter estimation schemes significantly. We demonstrate the enhancements
by choosing the family of ESPRIT-type algorithms as an example and introducing enhanced
versions that exploit the multidimensional structure (Tensor-ESPRIT), non-circular source
amplitudes (NC ESPRIT), and both jointly (NC Tensor-ESPRIT). To objectively judge the
resulting estimation accuracy, we derive a framework for the analytical performance assessment
of arbitrary ESPRIT-type algorithms by virtue of an asymptotical first order perturbation
expansion. Our results are more general than existing analytical results since we do not need
any assumptions about the distribution of the desired signal and the noise and we do not
require the number of samples to be large. At the end, we obtain simplified expressions for the
mean square estimation error that provide insights into efficiency of the methods under various
conditions. The third application area is bidirectional relay-assisted communications. Due to
its particularly low complexity and its efficient use of the radio resources we choose two-way
relaying with a MIMO amplify and forward relay. We demonstrate that the required channel
knowledge can be obtained by a simple algebraic tensor-based channel estimation scheme. We
also discuss the design of the relay amplification matrix in such a setting. Existing approaches
are either based on complicated numerical optimization procedures or on ad-hoc solutions
that to not perform well in terms of the bit error rate or the sum-rate. Therefore, we propose
algebraic solutions that are inspired by these performance metrics and therefore perform well
while being easy to compute. For the MIMO case, we introduce the algebraic norm maximizing
(ANOMAX) scheme, which achieves a very low bit error rate, and its extension Rank-Restored
ANOMAX (RR-ANOMAX) that achieves a sum-rate close to an upper bound. Moreover, for
the special case of single antenna terminals we derive the semi-algebraic RAGES scheme which
finds the sum-rate optimal relay amplification matrix based on generalized eigenvectors. Numerical
simulations evaluate the resulting system performance in terms of bit error rate and
system sum rate which demonstrates the effectiveness of the proposed algebraic solutions
Latent Representation and Sampling in Network: Application in Text Mining and Biology.
In classical machine learning, hand-designed features are used for learning a mapping from raw data. However, human involvement in feature design makes the process expensive. Representation learning aims to learn abstract features directly from data without direct human involvement. Raw data can be of various forms. Network is one form of data that encodes relational structure in many real-world domains. Therefore, learning abstract features for network units is an important task. In this dissertation, we propose models for incorporating temporal information given as a collection of networks from subsequent time-stamps. The primary objective of our models is to learn a better abstract feature representation of nodes and edges in an evolving network. We show that the temporal information in the abstract feature improves the performance of link prediction task substantially. Besides applying to the network data, we also employ our models to incorporate extra-sentential information in the text domain for learning better representation of sentences. We build a context network of sentences to capture extra-sentential information. This information in abstract feature representation of sentences improves various text-mining tasks substantially over a set of baseline methods. A problem with the abstract features that we learn is that they lack interpretability. In real-life applications on network data, for some tasks, it is crucial to learn interpretable features in the form of graphical structures. For this we need to mine important graphical structures along with their frequency statistics from the input dataset. However, exact algorithms for these tasks are computationally expensive, so scalable algorithms are of urgent need. To overcome this challenge, we provide efficient sampling algorithms for mining higher-order structures from network(s). We show that our sampling-based algorithms are scalable. They are also superior to a set of baseline algorithms in terms of retrieving important graphical sub-structures, and collecting their frequency statistics. Finally, we show that we can use these frequent subgraph statistics and structures as features in various real-life applications. We show one application in biology and another in security. In both cases, we show that the structures and their statistics significantly improve the performance of knowledge discovery tasks in these domains
- …