2,094 research outputs found

    Advanced signal processing solutions for ATR and spectrum sharing in distributed radar systems

    Get PDF
    Previously held under moratorium from 11 September 2017 until 16 February 2022This Thesis presents advanced signal processing solutions for Automatic Target Recognition (ATR) operations and for spectrum sharing in distributed radar systems. Two Synthetic Aperture Radar (SAR) ATR algorithms are described for full- and single-polarimetric images, and tested on the GOTCHA and the MSTAR datasets. The first one exploits the Krogager polarimetric decomposition in order to enhance peculiar scattering mechanisms from manmade targets, used in combination with the pseudo-Zernike image moments. The second algorithm employs the Krawtchouk image moments, that, being discrete defined, provide better representations of targets’ details. The proposed image moments based framework can be extended to the availability of several images from multiple sensors through the implementation of a simple fusion rule. A model-based micro-Doppler algorithm is developed for the identification of helicopters. The approach relies on the proposed sparse representation of the signal scattered from the helicopter’s rotor and received by the radar. Such a sparse representation is obtained through the application of a greedy sparse recovery framework, with the goal of estimating the number, the length and the rotation speed of the blades, parameters that are peculiar for each helicopter’s model. The algorithm is extended to deal with the identification of multiple helicopters flying in formation that cannot be resolved in another domain. Moreover, a fusion rule is presented to integrate the results of the identification performed from several sensors in a distributed radar system. Tests performed both on simulated signals and on real signals acquired from a scale model of a helicopter, confirm the validity of the algorithm. Finally, a waveform design framework for joint radar-communication systems is presented. The waveform is composed by quasi-orthogonal chirp sub-carriers generated through the Fractional Fourier Transform (FrFT), with the aim of preserving the radar performance of a typical Linear Frequency Modulated (LFM) pulse while embedding data to be sent to a cooperative system. Techniques aimed at optimise the design parameters and mitigate the Inter-Carrier Interference (ICI) caused by the quasiorthogonality of the chirp sub-carriers are also described. The FrFT based waveform is extensively tested and compared with Orthogonal Frequency Division Multiplexing (OFDM) and LFM waveforms, in order to assess both its radar and communication performance.This Thesis presents advanced signal processing solutions for Automatic Target Recognition (ATR) operations and for spectrum sharing in distributed radar systems. Two Synthetic Aperture Radar (SAR) ATR algorithms are described for full- and single-polarimetric images, and tested on the GOTCHA and the MSTAR datasets. The first one exploits the Krogager polarimetric decomposition in order to enhance peculiar scattering mechanisms from manmade targets, used in combination with the pseudo-Zernike image moments. The second algorithm employs the Krawtchouk image moments, that, being discrete defined, provide better representations of targets’ details. The proposed image moments based framework can be extended to the availability of several images from multiple sensors through the implementation of a simple fusion rule. A model-based micro-Doppler algorithm is developed for the identification of helicopters. The approach relies on the proposed sparse representation of the signal scattered from the helicopter’s rotor and received by the radar. Such a sparse representation is obtained through the application of a greedy sparse recovery framework, with the goal of estimating the number, the length and the rotation speed of the blades, parameters that are peculiar for each helicopter’s model. The algorithm is extended to deal with the identification of multiple helicopters flying in formation that cannot be resolved in another domain. Moreover, a fusion rule is presented to integrate the results of the identification performed from several sensors in a distributed radar system. Tests performed both on simulated signals and on real signals acquired from a scale model of a helicopter, confirm the validity of the algorithm. Finally, a waveform design framework for joint radar-communication systems is presented. The waveform is composed by quasi-orthogonal chirp sub-carriers generated through the Fractional Fourier Transform (FrFT), with the aim of preserving the radar performance of a typical Linear Frequency Modulated (LFM) pulse while embedding data to be sent to a cooperative system. Techniques aimed at optimise the design parameters and mitigate the Inter-Carrier Interference (ICI) caused by the quasiorthogonality of the chirp sub-carriers are also described. The FrFT based waveform is extensively tested and compared with Orthogonal Frequency Division Multiplexing (OFDM) and LFM waveforms, in order to assess both its radar and communication performance

    Sonar image interpretation for sub-sea operations

    Get PDF
    Mine Counter-Measure (MCM) missions are conducted to neutralise underwater explosives. Automatic Target Recognition (ATR) assists operators by increasing the speed and accuracy of data review. ATR embedded on vehicles enables adaptive missions which increase the speed of data acquisition. This thesis addresses three challenges; the speed of data processing, robustness of ATR to environmental conditions and the large quantities of data required to train an algorithm. The main contribution of this thesis is a novel ATR algorithm. The algorithm uses features derived from the projection of 3D boxes to produce a set of 2D templates. The template responses are independent of grazing angle, range and target orientation. Integer skewed integral images, are derived to accelerate the calculation of the template responses. The algorithm is compared to the Haar cascade algorithm. For a single model of sonar and cylindrical targets the algorithm reduces the Probability of False Alarm (PFA) by 80% at a Probability of Detection (PD) of 85%. The algorithm is trained on target data from another model of sonar. The PD is only 6% lower even though no representative target data was used for training. The second major contribution is an adaptive ATR algorithm that uses local sea-floor characteristics to address the problem of ATR robustness with respect to the local environment. A dual-tree wavelet decomposition of the sea-floor and an Markov Random Field (MRF) based graph-cut algorithm is used to segment the terrain. A Neural Network (NN) is then trained to filter ATR results based on the local sea-floor context. It is shown, for the Haar Cascade algorithm, that the PFA can be reduced by 70% at a PD of 85%. Speed of data processing is addressed using novel pre-processing techniques. The standard three class MRF, for sonar image segmentation, is formulated using graph-cuts. Consequently, a 1.2 million pixel image is segmented in 1.2 seconds. Additionally, local estimation of class models is introduced to remove range dependent segmentation quality. Finally, an A* graph search is developed to remove the surface return, a line of saturated pixels often detected as false alarms by ATR. The A* search identifies the surface return in 199 of 220 images tested with a runtime of 2.1 seconds. The algorithm is robust to the presence of ripples and rocks

    Adaptive sampling by histogram equalization: theory, algorithms, and applications, 2007

    Get PDF
    We present the investigation of a novel, progressive, adaptive sampling scheme. This scheme is based on the distribution of already obtained samples. Even spaced sampling of a function with varying slopes or degrees of complexity yields relatively fewer samples from the regions of higher slopes. Hence, a distribution of these samples will exhibit a relatively lower representation of the function values from regions of higher complexity. When compared to even spaced sampling, a scheme that attempts to progressively equalize the histogram of the function values results in a higher concentration of samples in regions of higher complexity. This is a more efficient distri-bution of sample points, hence the term adaptive sampling. This conjecture is confirmed by numerous examples. Compared to existing adaptive sampling schemes, our approach has the unique ability to efficiently obtain expensive samples from a space with no prior knowledge of the relative levels of variation or complexity in the sampled function. This is a requirement in numerous scientific computing applications. Three models are employed to achieve the equalization in the distribution of sampled function values: (1) an active-walker model, containing elements of the random walk theory, and the motion of Brownian particles, (2) an ant model, based on the simulation of the behavior of ants in search of resources, and (3) an evolutionary algorithm model. Their performances are compared on objective basis such as entropy measure of information, and the Nyquist-Shannon minimum sampling rate for band-limited signals. The development of this adaptive sampling scheme was informed by a need to effi-ciently synthesize hyperspectral images used in place of real images. The performance of the adaptive sampling scheme as an aid to the image synthesis process is evaluated. The synthesized images are used in the development of a measure of clutter in hyperspectral images. This process is described, and the results are presented

    Sensor Resource Management: Intelligent Multi-objective Modularized Optimization Methodology and Models

    Get PDF
    The importance of the optimal Sensor Resource Management (SRM) problem is growing. The number of Radar, EO/IR, Overhead Persistent InfraRed (OPIR), and other sensors with best capabilities, is limited in the stressing tasking environment relative to sensing needs. Sensor assets differ significantly in number, location, and capability over time. To determine on which object a sensor should collect measurements during the next observation period k, the known algorithms favor the object with the expected measurements that would result in the largest gain in relative information. We propose a new tasking paradigm OPTIMA for sensors that goes beyond information gain. It includes Sensor Resource Analyzer, and the Sensor Tasking Algorithm (Tasker). The Tasker maintains timing constraints, resolution, and geometric differences between sensors, relative to the tasking requirements on track quality and the measurements of object characterization quality. The Tasker does this using the computational intelligence approach of multi-objective optimization, which involves evolutionary methods

    Simulation study of a kanban-controlled production system

    Get PDF
    Just-In-Time (JIT) has become one of the most popular production control philosophies in the last three decades. JIT did not find acceptance in the American companies until after the oil crisis. To be more flexible and to adapt quickly to changes in the market, many American companies took to the recourse of JIT and have been extremely successful. JIT systems typically employ kanbans as a means of inventory control. A JIT system operating under kanban control is commonly termed as a pull system due to the way in which succeeding stages trigger production at preceding stages. Owing to this close dependence of stages on a production line, the performance of a kanban controlled JIT system is sensitive to various kinds of stochasticity.;It was the aim of this thesis to characterize such inventory systems under different conditions. In particular, the research focused on kanban controlled feeder lines. Various design and operational parameters like number of kanbans, number of stages, number of product types assembled and processing time variability were studied. Metrics such as time-in-system, throughput, kanban waiting time, utilization, stockout and work-in-process were used to measure the performance of the system. A simulation model was constructed to model the system and to carry out the various experiments conducted as part of this research. It was observed that time in system was significantly affected by de number of kanbans, number of product types and the level of processing time variability at the stages. The analysis of work-in-process indicated that it was affected by the number (of kanbans, number of stages, number of product types and the level of processing time variability at the stages. The factors affecting stockout were the number of kanbans and the number of products. Kanban waiting times were impacted by the number of kanbans, number of stages, number of product types and the level of processing time variability

    UAV based distributed automatic target detection algorithm under realistic simulated environmental effects

    Get PDF
    Over the past several years, the military has grown increasingly reliant upon the use of unattended aerial vehicles (UAVs) for surveillance missions. There is an increasing trend towards fielding swarms of UAVs operating as large-scale sensor networks in the air [1]. Such systems tend to be used primarily for the purpose of acquiring sensory data with the goal of automatic detection, identification, and tracking objects of interest. These trends have been paralleled by advances in both distributed detection [2], image/signal processing and data fusion techniques [3]. Furthermore, swarmed UAV systems must operate under severe constraints on environmental conditions and sensor limitations. In this work, we investigate the effects of environmental conditions on target detection performance in a UAV network. We assume that each UAV is equipped with an optical camera, and use a realistic computer simulation to generate synthetic images. The automatic target detector is a cascade of classifiers based on Haar-like features. The detector\u27s performance is evaluated using simulated images that closely mimic data acquired in a UAV network under realistic camera and environmental conditions. In order to improve automatic target detection (ATD) performance in a swarmed UAV system, we propose and design several fusion techniques both at the image and score level and analyze both the case of a single observation and the case of multiple observations of the same target

    PAT and automation strategies for the process development of PEGylated proteins

    Get PDF
    In der modernen Medizin werden vermehrt Medikamente eingesetzt die auf Molekülen mit hohem Molekulargewicht basieren die ihren Ursprung in biologischen Systemen haben. Diese biopharmazeutischen Medikamente werden unter anderem für verschiedene schwerwiegende und tödliche Erkrankungen eingesetzt. Darunter befinden sich verschiedene Formen von Krebs und chronische Erkrankungen wie Diabetes und Hämophilie die in der Regel lebenslange Medikation erfordern. Dies zeigt sich auch im Marktanteil dieser Medikamente. Acht der zehn meistverkauften Medikamente 2018 waren große biologische Moleküle wovon wiederum sechs monoklonale Antikörper (mAb) waren. Insgesamt erzielten diese zehn Medikamente einen Umsatz von mehr als 80 Milliarden USD. [1] Diese relativ großen Moleküle wie Antikörper, Gerinnungsfaktoren oder Insulin können nicht sinnvoll auf traditionelle Art chemisch synthetisiert werden. Um dieses Problem zu umgehen, werden stattdessen biologische Systeme zur Produktion verwendet, um die natürliche Synthese zu imitieren. Dazu werden gentechnisch veränderte Bakterien oder Säugerzellen in großen Fermentern produziert um die Zielprodukte zu exprimieren. Als Nebeneffekt der Produktion in komplexen biologischen Systemen wie lebenden Zellen entsteht allerdings ein sehr komplexes Profil an Verunreinigungen die im sogenannten Downstream Processing (DSP) aus der geklärten Zellkulturflüssigkeit (HCCF) entfernt werden müssen. In Kombination mit der unabhängig davon arbeitsintensiven Identifikation von Kandidatenmolekülen und langwierige klinischen Studien als Voraussetzung zur Zulassung durch die Behörden sind dadurch sehr große finanzielle Investitionen notwendig um derartige Medikamente zu erforschen, entwickeln und zu produzieren. Der DSP wird so entworfen, dass ungewünschte produktbezogene und prozessbezogene Verunreinigungen abgetrennt werden um eine konsistente Qualität, Wirksamkeit und geringe Nebenwirkungen des Produktes zu gewährleisten. Während einige potentielle Quellen für Prozessvarianz wie Temperatur, pH Wert und Pufferzusammensetzung relativ einfach zu kontrollieren sind, führt die Verwendung von lebenden Organismen in der Produktion immer zu variablen Ausgangsmaterialien im Aufreinigungsprozess. Der Aufreinigungsprozess besteht in der Regel aus einer Aneinanderreihung von Standardschritten wie Querstromfiltration (CFF), chemischen Reaktionen und Chromatographieschritten. Die Fähigkeit den Status des Prozesses zu bestimmen und den Prozess entsprechend zu steuern ist wichtig um die Variation im Ausgangsmaterial auffangen zu können. Regulierungsbehörden wie die Food and Drug Administration (FDA) und European Medicines Agency (EMA) bevorzugen solche wissensbasierten Ansätze für die Prozessentwicklung. Solche Prozesse folgen den Prinzipien von intrinsischer Produktqualität oder Quality by Design (QbD) und verwenden Prozessanalytische Technologien (PAT) um die kritischen Qualitätsattribute und kritischen Prozessparameter Critical Process Parameter (CPP) zu messen, um das Erreichen des gewünschten Produktprofils (QTPP) am Ende des Prozesses sicherzustellen. Dies trifft in besonderem Maße auf spezielle Formate von Proteinbasierten Medikamenten zu bei denen zusätzlich noch ein weiteres Molekül wie Polyethylenglykol (PEG) kovalent an das produzierte Protein gebunden wird nachdem es aufgereinigt wurde. Obwohl PEG selbst sich in biologischen Systemen relativ inert verhält kann es deutliche Vorteile haben ein therapeutisches Protein mit einem kovalent gebundenen PEG zu versehen. Der hydrodynamische Radius wird größer, die Ausscheidung durch die Niere wird verlangsamt und die Stabilität erhöht. Diese Vorteile stehen allerdings am Ende eines verkomplizierten Aufreinigungsprozesses. Nachdem das therapeutische Molekül produziert und aufgereinigt wurde wird die Konjugationsreaktion gefolgt von einer weiteren Reihe von Aufreinigungsschritten durchgeführt um das Protein mit der richtigen Anzahl konjugierter PEG Moleküle zu erhalten. Die Reaktion wird in der Regel in einem Rührkesselreaktor durchgeführt und es entstehen Proteine mit verschiedenen PEGylierungsgraden und Isoformen der jeweiligen Spezies. Die Zielsetzung dieser Arbeit war es Fourier-Transform Infrared (FTIR) Spektroskopie als Prozessanalytische Technologie (PAT) und Automatisierungsstrategien für die Prozessentwicklung von PEGylierten Proteinen zu implementieren. Um FTIR Spektroskopie als PAT Methode verwendbar zu machen wurde zunächst ein experimenteller Aufbau entwickelt um direkt am Säulenausgang einer Chromatographieanlage Spektraldaten in Beinahe-Echtzeit als in-line Messung aufzunehmen. Dazu wurde das Spektrometer mithilfe einer speziellen Durchflusszelle in den Flussweg integriert und Software entwickelt, um die Messungen automatisiert zu starten. Neben MATLAB und OPUS-Skript basierter software wurde dazu ein externes Kommunikationsgerät von National Instruments verwendet um den Informationsaustausch mit der Chromatographieanlage zu ermöglichen. Zusätzlich wurden Methoden zur Korrektur der Spektraldaten aus Ionentauschchromatographieexperimenten untersucht. Da Wasser in solchen Experimenten in großen Konzentrationen vorliegt hat das aufgeben eines Salzgradienten einen signifikanten Einfluss auf das Spektrum. Obwohl die Salzkonzentration deutlich geringer ist als die des Wassers ist sie mehrere Größenordnungen höher als die der Analyte in Lösung. Als erste Implementierung zur Hintergrundkorrektur wurden Spektraldaten eines Blindlaufs abgezogen um den Einfluss der sich ändernden Salzkonzentration auszugleichen. Der experimentelle Aufbau für die Automatisierung der Reaktionsexperimente basierte ebenfalls auf einer Chromatographieanlage. Dabei wurden der Fraktionierer und die Probenaufgabepumpe mit 3D-gedruckten Adaptern versehen um die Reaktionslösung zu zirkulieren und die automatisierte Probennahme im Mikrotitermaßstab zu ermöglichen. Nach der erfolgreichen Implementierung der FTIR Sepktroskopie als in-line Messung wurden mehrere Fallstudien durchgeführt. Die ersten beiden Studien basieren auf der Anwendung von Multivariater Datenanalyse (MVDA) in Kombination mit Spektraldaten. Lysozym und ein Monoklonaler Antikörper (mAb) wurden durch Gradientenelution auf einer Chromatographiesäule getrennt. Mithilfe der Spektraldaten und Offlineanalytik wurde ein PLS Regressionsmodell kalibriert um die Konzentration der beiden Spezies im Prozessstrom basierend auf den Spektraldaten abzuschätzen. Die zweite Fallstudie wurde nach demselben Prinzip durchgeführt. Lysozym wurde in einem Rührkesselreaktor mit PEG konjugiert und durch Ionentauschchromatographie aufgereinigt. Ebenfalls basierend auf einem PLS Regressionsmodell wurde die Konzentration der unterschiedlich PEGylierten Spezies am Säulenausgang abgeschätzt. In beiden Studien korrelierten die Modellantworten mit den Ergebnissen der Referenzanalytik und zeigten nur geringe Abweichungen. Die Grundidee hinter der ersten Fallstudie wurde schon in früheren Arbeiten umgesetzt wobei die zweite Studie speziell von FTIR profitiert, da PEG nicht UV-aktiv ist. Um die Vielseitigkeit von FTIR als PAT Methode zu zeigen wurde in einer weiteren Fallstudie die Konzentration einer Prozessbezogenen Verunreinigung in Form von Triton X-100 im Durchfluss während der Beladung einer Chromatographiesäule überwacht, indem eine lineare Regression auf die Spektraldaten angewendet wurde anstatt ein multivariates Regressionsmodell zu kalibrieren. In thematischer Fortführung der zweiten Fallstudie wurde die integrierte Festphasen-PEGylierung und Aufreinigung durch dieselbe Chromatographiesäule mit FTIR ohne die Verwendung multivariater Regressionsmethoden mithilfe der Absorptionsspektren überwacht. Das zu PEGylierende Protein wurde auf der Säule gebunden und dann im gebundenen Zustand mit dem Konjugationsreagenz in Kontakt gebracht. Der PEGylierungsgrad der eluierenden Spezies wurde dann auf Basis des Verhältnisses der Extinktionskoeffizenten des Proteins und des PEG-Reagenz abgeschätzt. Dieses Vorgehen ist erheblich weniger arbeitsintensiv als das Durchführen der Experimente um ein Regressionsmodell zu kalibrieren. Des Weiteren wurde in dieser Studie ein vielseitigerer Ansatz zur Hintergrundkorrektur basierend auf Extended Multiplicative Signal Correction (EMSC) verwendet. Im Vergleich mit der Referenzanalytik konnte gezeigt werden, dass der PEGylierungsgrad mit vergleichsweise geringem Vorwissen abgeschätzt werden konnte. Der Aufwand um die Extinktionskoeffizienten zu bestimmen war dabei deutlich niedriger, als der experimentelle Aufwand um Regressionsmodelle wie in den vorhergehenden Studien zu kalibrieren. Die PEGylierungsreaktion in Form eines Chargenprozesses wurde in einer weiteren Studie betrachtet. Die automatische Zirkulation der Prozesslösung durch das FTIR Spektrometer wurde in Kombination mit der automatisierten Probennahme in Mikrotiterplatten realisiert. Um dies zu erreichen wurde der Flusspfad einer Chromatographieanlage mit selbst entworfenen 3D-gedruckten Elementen verändert. Dabei wurde gezeigt, dass die mit verschiedenen Prozessbedingungen erzeugten Proben verwendet werden können um ein Kinetikmodell mit geringen Konfidenzintervallen zu kalibrieren. Des weiteren wurde untersucht inwieweit sich die Spektraldaten verwenden lassen um den Aktuellen Prozessfortschritt abzuschätzen

    Evaluation of Pavement Roughness and Vehicle Vibrations for Road Surface Profiling

    Get PDF
    The research explores aspects of road surface measurement and monitoring, targeting some of the main challenges in the field, including cost and portability of high-speed inertial profilers. These challenges are due to the complexities of modern profilers to integrate various sensors while using advanced algorithms and processes to analyse measured sensor data. Novel techniques were proposed to improve the accuracy of road surface longitudinal profiles using inertial profilers. The thesis presents a Half-Wavelength Peak Matching (HWPM) model, designed for inertial profilers that integrate a laser displacement sensor and an accelerometer to evaluate surface irregularities. The model provides an alternative approach to drift correction in accelerometers, which is a major challenge when evaluating displacement from acceleration. The theory relies on using data from the laser displacement sensor to estimate a correction offset for the derived displacement. The study also proposes an alternative technique to evaluating vibration velocity, which improves on computational factors when compared to commonly used methods. The aim is to explore a different dimension to road roughness evaluation, by investigating the effect of surface irregularities on vehicle vibration. The measured samples show that the drift in the displacement calculated from the accelerometer increased as the vehicle speed at which the road measurement was taken increased. As such, the significance of the HWPM model is more apparent at higher vehicle speeds, where the results obtained show noticeable improvements to current techniques. All results and analysis carried out to validate the model are based on real-time data obtained from an inertial profiler that was designed and developed for the research. The profiler, which is designed for portability, scalability and accuracy, provides a Power Over Ethernet (POE) enabled solution to cope with the demand for high data transmission rates.
    corecore