417 research outputs found

    Sparse nonlinear optimization for signal processing and communications

    Get PDF
    This dissertation proposes three classes of new sparse nonlinear optimization algorithms for network echo cancellation (NEC), 3-D synthetic aperture radar (SAR) image reconstruction, and adaptive turbo equalization in multiple-input multiple-output (MIMO) underwater acoustic (UWA) communications, respectively. For NEC, the proposed two proportionate affine projection sign algorithms (APSAs) utilize the sparse nature of the network impulse response (NIR). Benefiting from the characteristics of l₁-norm optimization, affine projection, and proportionate matrix, the new algorithms are more robust to impulsive interferences and colored input than the conventional adaptive algorithms. For 3-D SAR image reconstruction, the proposed two compressed sensing (CS) approaches exploit the sparse nature of the SAR holographic image. Combining CS with the range migration algorithms (RMAs), these approaches can decrease the load of data acquisition while recovering satisfactory 3-D SAR image through l₁-norm optimization. For MIMO UWA communications, a robust iterative channel estimation based minimum mean-square-error (MMSE) turbo equalizer is proposed for large MIMO detection. The MIMO channel estimation is performed jointly with the MMSE equalizer and the maximum a posteriori probability (MAP) decoder. The proposed MIMO detection scheme has been tested by experimental data and proved to be robust against tough MIMO channels. --Abstract, page iv

    MIMO Systems

    Get PDF
    In recent years, it was realized that the MIMO communication systems seems to be inevitable in accelerated evolution of high data rates applications due to their potential to dramatically increase the spectral efficiency and simultaneously sending individual information to the corresponding users in wireless systems. This book, intends to provide highlights of the current research topics in the field of MIMO system, to offer a snapshot of the recent advances and major issues faced today by the researchers in the MIMO related areas. The book is written by specialists working in universities and research centers all over the world to cover the fundamental principles and main advanced topics on high data rates wireless communications systems over MIMO channels. Moreover, the book has the advantage of providing a collection of applications that are completely independent and self-contained; thus, the interested reader can choose any chapter and skip to another without losing continuity

    Proceedings of the 35th WIC Symposium on Information Theory in the Benelux and the 4th joint WIC/IEEE Symposium on Information Theory and Signal Processing in the Benelux, Eindhoven, the Netherlands May 12-13, 2014

    Get PDF
    Compressive sensing (CS) as an approach for data acquisition has recently received much attention. In CS, the signal recovery problem from the observed data requires the solution of a sparse vector from an underdetermined system of equations. The underlying sparse signal recovery problem is quite general with many applications and is the focus of this talk. The main emphasis will be on Bayesian approaches for sparse signal recovery. We will examine sparse priors such as the super-Gaussian and student-t priors and appropriate MAP estimation methods. In particular, re-weighted l2 and re-weighted l1 methods developed to solve the optimization problem will be discussed. The talk will also examine a hierarchical Bayesian framework and then study in detail an empirical Bayesian method, the Sparse Bayesian Learning (SBL) method. If time permits, we will also discuss Bayesian methods for sparse recovery problems with structure; Intra-vector correlation in the context of the block sparse model and inter-vector correlation in the context of the multiple measurement vector problem

    Membrane chromatography - high throughput screening and simulative process develoopment

    Get PDF
    Die in dieser Dissertation durchgeführten Untersuchungen liefern einen Beitrag im Bereich der biopharmazeutischen Prozessentwicklung und Produktion, im Speziellen für die chromatographische Aufreinigung. Bedingt durch die weltweite SARS-CoV-2 Pandemie stand die biopharmazeutische Industrie im Mittelpunkt des Medieninteresses. Dies führte zu einer öffentlichen Diskussion der Entwicklung und Herstellung von biopharmazeutischen Produkten. Aufgrund des dringlich benötigten Impfstoffes sind auch die benötigten Prozessentwicklungszeiten dieses erörtert worden. Die schnelle Bereitstellung eines wirksamen Arzneimittels bzw. Impfstoffes unter Einhaltung der behördlichen Anforderungen erfordert eine modernisierte und effizientere Entwicklung. Hierbei birgt eine einseitige Fokussierung auf die reine Reduktion der Entwicklungszeit eines Prozesses jedoch Nachteile und Risiken. Die Effizienzsteigerungspotentiale ergeben sich vor allem aus Wissensmanagement bei der Übertragung von bekannten Prozessentwicklungen wodurch Neuentwicklungen durch vorhandenes Wissen beschleunigt werden können. Des Weiteren besteht das Risiko bei eine reinen Zeitfokussierung, dass neuer/alternativer Herstellungsverfahren vernachlässigt werden und die langfristige Wettbewerbsfähigkeit nicht gegeben ist. Im Allgemeinen ist der pharmazeutische Aufreinigungsprozess in den vorgelagerten Upstream- (USP) und den daran angeschlossenen Downstream Prozess (DSP) unterteilt. Der USP verfolgt den optimalen Zellklon bzw. die optimalen Zellproduktionsbedingungen, wodurch eine stabile und hohe Produktivität erreicht wird. Im Gegensatz konzentriert sich das DSP auf die Produkt- und die Verunreinigungsprofile mit dem Ziel, eine hohe Reinheit und Ausbeute des Produktes zu erhalten. Aufgrund des hohen Standardisierungsgrades und der verfügbaren Informationen eignet sich die Herstellung von monoklonalen Antikörpern als Beispiel für einen Plattformprozess. Dieser Prozess umfasst im UPS die Vorbereitung von Kulturen und Zellen sowie die Herstellung des Wirkstoffes in einem Fermenter. Anschließend erfolgt die Aufreinigung des Produktes im DSP durch die Zellabtrennung, zwei bis drei Chromatographieschritte, Virusinaktivierung und einen eventuellen Pufferaustausch. Dem angeschlossen folgt die Virus- und Sterilfiltration in Vorbereitung auf die Abfüllung. Das derzeitige Verfahren in der chromatographischen Prozessentwicklung ermöglicht den Maßstabstransfer vom Labor zur Produktion durch verschiedene Ansätze. Diese Ansätze beruhen auf experimentellen Informationen, Expertenwissen sowie mechanistischer und/oder statistischer Modellierung. Die Prozessentwicklung gliedert sich in eine erste statische Untersuchung, eine detailliertere dynamische Leistungsuntersuchung und Experimente. Das grundsätzliche Ziel ist eine erfolgreiche Ergebnisübertragung in den Produktionsmaßstab. In frühen Entwicklungsstadien stehen der Prozessentwicklung meist nur sehr geringe Mengen des potenziellen Wirkstoffes zur Verfügung. Dementsprechend werden die statischen Untersuchungen entweder manuell oder durch robotergestützte Pipettierschritte im Kleinstmaßstab durchgeführt. Dem angeschlossen werden in Performance-Untersuchungen die ersten dynamischen Effekte ermittelt, typischerweise in automatisierten Robotersäulen im Mikrolitermaßstab. Bei ausreichender Verfügbarkeit werden detaillierte Experimente im Milliliter-Maßstab mit Flüssigchromatographie-Systemen im Labormaßstab durchgeführt. Die Laborsysteme weisen bereits einen mit der Produktion vergleichbaren Automatisierungsgrad auf. Dementsprechend bieten die detaillierten Experimente in der Regel die Grundlage für den Transfer in den Pilot- oder Produktionsmaßstab. In aktuellen Studien wird der Entwicklungsprozess häufig durch mechanistische Modellierung (MM) unterstützt. Das Ziel dieser Arbeiten ist eine theoretische Repräsentation des betrachteten Schrittes unter Bildung eines digitalen Zwillings. MM bietet die Möglichkeit, zusätzliche Informationen über Eingangsstoffe, stationäre Phasen, Geräte und Prozessführungen zu generieren. Auf diese Weise könnte MM die heute bekannten Prozessentwicklungsansätze miteinander verbinden, zusammenfassen und eine lebende Prozessbibliothek schaffen. Eine solche Bibliothek könnte das Wissen aus verschiedenen Prozessen bündeln und auf neue Fragestellung übertragen. Durch eine solche Transferleistung würden sich Zeit- und Kostenaufwand reduzieren. Die Entwicklung einer lebendigen Prozessbibliothek erfordert gleiche Untersuchungsansätze für alle stationären Phasen. Aufgrund der historischen Entwicklung besteht ein Ungleichgewicht zwischen partikulären/harzbasierter basiert Chromatographie und anderen stationären Phasen. Diese zumeist relativ neuen stationären Phasen werden nur selten für neue experimentelle Aufbauten, Prozessführungen und mechanistischen Modellierungsansätzen diskutiert. In der vorliegenden Arbeit wird ein monoklonaler Antikörper-Aufreinigungsprozess zur Aggregatabtrennung untersucht. Hierbei wird zunächst die Angleichung der Prozessentwicklungsmethoden zwischen diffusiven harzbasierten- und konvektiven Membranadsorbern (MA) als stationäre Phasen angestrebt. Dafür wird zunächst ein Aufbau für ein Hochdurchsatz-Screening entwickelt und mittels mechanistischer Modellierung die Ausarbeitung eines digitalen Zwillings angestrebt. In vier maßgeblichen Fallstudien werden die unterschiedlichen Prozessentwicklungsansätze für konvektive stationäre Phasen an jene der partikulären Chromatographie angeglichen. Hierbei werden folgende Bereiche untersucht: Bestimmung des Prozessparameterbereichs, Einbeziehung neuer Prozessführungen, Vergleichbarkeit unterschiedlicher stationärer Phasen und Skalierbarkeit. Für die Untersuchung konvektiver stationärer Phasen wie MA, welche typischerweise einen hohen Stofftransport und geringen Druckverlust im Modul aufweisen, wurde ein HTS Modul im Kleinstmaßstab für eine skalierbare Prozessentwicklung entwickelt. Die Untersuchung fokussierte sich auf die Entfernung von Aggregaten aus einer fermentierten monoklonalen Antikörperlösung. Die erste Fallstudie untersucht die experimentelle Anwendung des entwickelten HTS-Aufbaus und -Moduls. Hierbei werden der klassische Bindungs- und Elutionsmodus unter Variation des pH-Wertes und der Salzkonzentration angewendet. Dadurch lassen sich die Prozessfenster für die untersuchten Ionenaustausch-MA Sartobind® S und Q ermitteln. Des Weiteren wird mit Hilfe mechanistischer Modellbildung ein digitaler Zwilling erarbeitet. Die erhaltenen Ergebnisse bestätigen den erfolgreichen HTS-Aufbau und den entwickelten digitalen Zwilling. Im Ergebnisvergleich mit einer flüssigchromatographiebasierten Systemauftrennung zeigte der digitale Zwilling eine Signalübereinstimmung von über 80%. Des Weiteren wird für eine Maßstabsübertragung eines 0.42 mL Moduls auf ein 800 mL Modul eine Vorhersagegenauigkeit der dynamischen Durchbruchskonzentration von 90 % erzielt. Im Rahmen der Angleichung von konvektiven zu harzbasierten stationären Phasen ist in der zweiten Fallstudie die Abbildbarkeit von neuen Prozessführungen untersucht worden. Unterstützt durch mechanistische Modellierung wurden zwei verschiedene Trennungen auf kompetitive Adsorption untersucht. Darauf aufbauend wurde ein neuartiges HTS-Screeningmethode entwickelt. Dieses Verfahren ermöglicht die Bestimmung von Verdrängungseffekten durch kompetitive Adsorption und liefert Schlüsselgrößen zur Identifizierung dieser. Die Untersuchungsmethode wird Überladungs- und Elutionsverfahren (overload and elute mode, OBE) genannt und ebenfalls in der Aggregatabtrennung mit Sartobind® S untersucht. Basierend auf der im HTS angewandten OBE-Methode lassen sich sowohl klassische als auch dynamische Effekte bestimmen. Die Einführung des Verdrängungsidentifikators (displacement identifier, DI) ermöglicht eine Visualisierung von Verdrängungseffekten in einer Prozessparameterkarte. Auf Grundlage dieser Ergebnisse werden die Verdrängungseffekte in einem Recyclingexperiment angewendet. Dieses Recyclingexperiment weist durch die Ausnutzung der Verdrängungseffekte eine 45 % Reduktion der IgG- und 88 % höher Aggregatbindungskapazität im Vergleich mit einem einfachen FT-Prozess auf. Die zuvor angeführten Arbeiten haben die Unterschiede zwischen harzbasierten und konvektiven stationären Phasen reduziert. Dementsprechend erfolgten in der dritten Fallstudie die Untersuchung und der Vergleich von unterschiedlichen stationären Phasen. Hierbei wird eine Strategie zur Bewertung verschiedener Kombinationen von stationären Phasen, deren Grundgerüsten und Liganden, vorgestellt. Diese Strategie gewährleistet für die Erstellung einer Lebenden Prozessentwicklungsbibliothek die Untersuchung und Auswahl von passenden stationären Phasen. In dieser Fallstudie werden entwickelte Strategien an neuartigen MA behandelt, welche verschiedene chromatographische Effekte kombinieren (Mixed Mode, MiMo). Die Strategie beinhaltet theoretische Überlegungen sowie Untersuchungen der optimalen stationären Phasen hinsichtlich ihrer Selektivität und Bindungskapazität. Anhand der theoretischen Überlegungen lässt sich der experimentelle Raum, die möglichen Kombinationen aus stationären Phasen, deren Grundgerüst und Liganden reduzieren. Dafür wird jeder potenzielle MiMo MA Kandidat auf sein Potential zur Reduktion von Aggregaten in einer mAb Lösung untersucht und mit der Leistung der harzbasierten stationären Phase Capto™ Adhere verglichen. Die vorgestellte Strategie reduziert in einem frühem Untersuchungszeitpunkt die Reduktion von drei auf zwei mögliche stationäre Phasen reduzieren. Unter Berücksichtigung des untersuchten Einflusses der Ionenkapazität lässt sich ein finaler Kandidat ermitteln. Hierbei zeigt der Kandidat eine um 2 bis 3 Membranvolumen höhere Bindungskapazität als die Referenz Capto™ Adhere. Unter Verwendung der vorgestellten Strategie und Einbindung in eine Lebende Prozessbibliothek lassen sich zeiteffizient optimale stationäre Phasen identifizieren. Komplettiert wird die Arbeit in der letzten Fallstudie durch eine anwenderorientierte Maßstabsübertragung mittels mechanistischer Modellierung. Diese Arbeit beschreibt die typischen Modellierungsschritte mit Fokus auf der Maßstabsübertragung. Hierbei wird in der fluiddynamischen Beschreibung im Speziellen auf die Untersuchung und Optimierung von verschiedenen Modulen und deren Maßstabsübertragung eingegangen. Abweichend von der klassischen Isothermen-Parameterbestimmung werden historische HTS Daten verwendet, um die Isothermen-Parameter abzuschätzen. Dieses Vorgehen ermöglich in einem Lebenden Bibliotheksansatz die Inklusion von historischen Daten. Abgeschlossen wird die Fallstudie durch die Maßstabsübertrag eines axial durchströmten 0,46 mL HTS-Moduls zu einem 150 mL radial durchströmten Modul im Pilotmaßstab. Abschließend liefert diese Arbeit ein Verfahren zur Optimierung der Prozessentwicklung. Die verschiedenen Ansätze der Prozessentwicklung können in einem Lebenden Bibliothekansatz zusammengeführt werden. Dieser Bibliothekansatz umfasst Expertenwissen, Experimente sowie statistische und mechanistische Modellierung. In diesem Bestreben wurden zwischen harzbasierten und konvektiven stationären Phasen gleiche Wettbewerbsbedingungen geschaffen. Diese Vergleichbarkeit ermöglicht eine direkte Auswahl der stationären Phasen für eine bestimmte Trennaufgabe. Die anwenderorientierte Maßstabsübertragung bietet einen Leitfaden, wie durch mechanistische Modellierung die unterschiedlichen Prozessentwicklungsansätze zusammengeführt werden können. In dieser Arbeit zeigt die mechanistische Modellierung, wie der Prozessentwicklungsprozess abgebildet, transferiert, konserviert und standardisiert werden kann. Dadurch entsteht ein kohärentes und übertragbares Verfahren zur Verfügung, wodurch die anstehenden Herausforderungen in der Prozessentwicklung überwunden werden können

    Radio Communications

    Get PDF
    In the last decades the restless evolution of information and communication technologies (ICT) brought to a deep transformation of our habits. The growth of the Internet and the advances in hardware and software implementations modified our way to communicate and to share information. In this book, an overview of the major issues faced today by researchers in the field of radio communications is given through 35 high quality chapters written by specialists working in universities and research centers all over the world. Various aspects will be deeply discussed: channel modeling, beamforming, multiple antennas, cooperative networks, opportunistic scheduling, advanced admission control, handover management, systems performance assessment, routing issues in mobility conditions, localization, web security. Advanced techniques for the radio resource management will be discussed both in single and multiple radio technologies; either in infrastructure, mesh or ad hoc networks

    Optimal Sensing and Actuation Policies for Networked Mobile Agents in a Class of Cyber-Physical Systems

    Get PDF
    The main purpose of this dissertation is to define and solve problems on optimal sensing and actuating policies in Cyber-Physical Systems (CPSs). Cyber-physical system is a term that was introduced recently to define the increasing complexity of the interactions between computational hardwares and their physical environments. The problem of designing the ``cyber\u27\u27 part may not be trivial but can be solved from scratch. However, the ``physical\u27\u27 part, usually a natural physical process, is inherently given and has to be identified in order to propose an appropriate ``cyber\u27\u27 part to be adopted. Therefore, one of the first steps in designing a CPS is to identify its ``physical\u27\u27 part. The ``physical\u27\u27 part can belong to a large array of system classes. Among the possible candidates, we focus our interest on Distributed Parameter Systems (DPSs) whose dynamics can be modeled by Partial Differential Equations (PDE). DPSs are by nature very challenging to observe as their states are distributed throughout the spatial domain of interest. Therefore, systematic approaches have to be developed to obtain the optimal locations of sensors to optimally estimate the parameters of a given DPS. In this dissertation, we first review the recent methods from the literature as the foundations of our contributions. Then, we define new research problems within the above optimal parameter estimation framework. Two different yet important problems considered are the optimal mobile sensor trajectory planning and the accuracy effects and allocation of heterogeneous sensors. Under the remote sensing setting, we are able to determine the optimal trajectories of remote sensors. The problem of optimal robust estimation is then introduced and solved using an interlaced ``online\u27\u27 or ``real-time\u27\u27 scheme. Actuation policies are introduced into the framework to improve the estimation by providing the best stimulation of the DPS for optimal parameter identification, where trajectories of both sensors and actuators are optimized simultaneously. We also introduce a new methodology to solving fractional-order optimal control problems, with which we demonstrate that we can solve optimal sensing policy problems when sensors move in complex media, displaying fractional dynamics. We consider and solve the problem of optimal scale reconciliation using satellite imagery, ground measurements, and Unmanned Aerial Vehicles (UAV)-based personal remote sensing. Finally, to provide the reader with all the necessary background, the appendices contain important concepts and theorems from the literature as well as the Matlab codes used to numerically solve some of the described problems

    Estimation and detection of transmission line characteristics in the copper access network

    Get PDF
    The copper access-network operators face the challenge of developing and maintaining cost-effective digital subscriber line (DSL) services that are competitive to other broadband access technologies. The way forward is dictated by the demand of ever increasing data rates on the twisted-pair copper lines. To meet this demand, a relocation of the DSL transceivers in cabinets closer to the customers are often necessary combined with a joint expansion of the accompanying optical-fiber backhaul network. The equipment of the next generation copper network are therefore becoming more scattered and geographically distributed, which increases the requirements of automated line qualification with fault detection and localization. This scenario is addressed in the first five papers of this dissertation where the focus is on estimation and detection of transmission line characteristics in the copper access network. The developed methods apply model-based optimization with an emphasis on using low-order modeling and a priori information of the given problem. More specifically, in Paper I a low-order and causal cable model is derived based on the Hilbert transform. This model is successfully applied in three contributions of this dissertation. In Paper II, a class of low-complexity unbiased estimators for the frequency-dependent characteristic impedance is presented that uses one-port measurements only. The so obtained characteristic impedance paves the way for enhanced time domain reflectometry (a.k.a. TDR) on twisted-pair lines. In Paper III, the problem of estimating a nonhomogeneous and dispersive transmission line is investigated and a space-frequency optimization approach is developed for the DSL application. The accompanying analysis shows which parameters are of interest to estimate and further suggests the introduction of the concept capacitive length that overcomes the necessity of a priori knowledge of the physical line length. In Paper IV, two methods are developed for detection and localization of load coils present in so-called loaded lines. In Paper V, line topology identification is addressed with varying degree of a priori information. In doing so, a model-based optimization approach is employed that utilizes multi-objective evolutionary computation based on one/two-port measurements. A complement to transceiver relocation that potentially enhances the total data throughput in the copper access network is dynamic spectrum management (DSM). This promising multi-user transmission technique aims at maximizing the transmission rates, and/or minimizing the power consumption, by mitigating or cancelling the dominating crosstalk interference between twisted-pair lines in the same cable binder. Hence the spectral utilization is improved by optimizing the transmit signals in order to minimize the crosstalk interference. However, such techniques rely on accurate information of the (usually) unknown crosstalk channels. This issue is the main focus of Paper VI and VII of this dissertation in which Paper VI deals with estimation of the crosstalk channels between twisted-pair lines. More specifically, an unbiased estimator for the square-magnitude of the crosstalk channels is derived from which a practical procedure is developed that can be implemented with standardized DSL modems already installed in the copper access network. In Paper VII the impact such a non-ideal estimator has on the performance of DSM is analyzed and simulated. Finally, in Paper VIII a novel echo cancellation algorithm for DMT-based DSL modems is presented

    System- and Data-Driven Methods and Algorithms

    Get PDF
    An increasing complexity of models used to predict real-world systems leads to the need for algorithms to replace complex models with far simpler ones, while preserving the accuracy of the predictions. This two-volume handbook covers methods as well as applications. This first volume focuses on real-time control theory, data assimilation, real-time visualization, high-dimensional state spaces and interaction of different reduction techniques
    corecore