172 research outputs found

    Target Tracking in Wireless Sensor Networks

    Get PDF

    Multi-object tracking using sensor fusion

    Get PDF

    Best Linear Unbiased Estimation Fusion with Constraints

    Get PDF
    Estimation fusion, or data fusion for estimation, is the problem of how to best utilize useful information contained in multiple data sets for the purpose of estimating an unknown quantity — a parameter or a process. Estimation fusion with constraints gives rise to challenging theoretical problems given the observations from multiple geometrically dispersed sensors: Under dimensionality constraints, how to preprocess data at each local sensor to achieve the best estimation accuracy at the fusion center? Under communication bandwidth constraints, how to quantize local sensor data to minimize the estimation error at the fusion center? Under constraints on storage, how to optimally update state estimates at the fusion center with out-of-sequence measurements? Under constraints on storage, how to apply the out-of-sequence measurements (OOSM) update algorithm to multi-sensor multi-target tracking in clutter? The present work is devoted to the above topics by applying the best linear unbiased estimation (BLUE) fusion. We propose optimal data compression by reducing sensor data from a higher dimension to a lower dimension with minimal or no performance loss at the fusion center. For single-sensor and some particular multiple-sensor systems, we obtain the explicit optimal compression rule. For a multisensor system with a general dimensionality requirement, we propose the Gauss-Seidel iterative algorithm to search for the optimal compression rule. Another way to accomplish sensor data compression is to find an optimal sensor quantizer. Using BLUE fusion rules, we develop optimal sensor data quantization schemes according to the bit rate constraints in communication between each sensor and the fusion center. For a dynamic system, how to perform the state estimation and sensor quantization update simultaneously is also established, along with a closed form of a recursion for a linear system with additive white Gaussian noise. A globally optimal OOSM update algorithm and a constrained optimal update algorithm are derived to solve one-lag as well as multi-lag OOSM update problems. In order to extend the OOSM update algorithms to multisensor multitarget tracking in clutter, we also study the performance of OOSM update associated with the Probabilistic Data Association (PDA) algorithm

    Energy-efficient information inference in wireless sensor networks based on graphical modeling

    Get PDF
    This dissertation proposes a systematic approach, based on a probabilistic graphical model, to infer missing observations in wireless sensor networks (WSNs) for sustaining environmental monitoring. This enables us to effectively address two critical challenges in WSNs: (1) energy-efficient data gathering through planned communication disruptions resulting from energy-saving sleep cycles, and (2) sensor-node failure tolerance in harsh environments. In our approach, we develop a pairwise Markov Random Field (MRF) to model the spatial correlations in a sensor network. Our MRF model is first constructed through automatic learning from historical sensed data, by using Iterative Proportional Fitting (IPF). When the MRF model is constructed, Loopy Belief Propagation (LBP) is then employed to perform information inference to estimate the missing data given incomplete network observations. The proposed approach is then improved in terms of energy-efficiency and robustness from three aspects: model building, inference and parameter learning. The model and methods are empirically evaluated using multiple real-world sensor network data sets. The results demonstrate the merits of our proposed approaches

    Signals and Images in Sea Technologies

    Get PDF
    Life below water is the 14th Sustainable Development Goal (SDG) envisaged by the United Nations and is aimed at conserving and sustainably using the oceans, seas, and marine resources for sustainable development. It is not difficult to argue that signals and image technologies may play an essential role in achieving the foreseen targets linked to SDG 14. Besides increasing the general knowledge of ocean health by means of data analysis, methodologies based on signal and image processing can be helpful in environmental monitoring, in protecting and restoring ecosystems, in finding new sensor technologies for green routing and eco-friendly ships, in providing tools for implementing best practices for sustainable fishing, as well as in defining frameworks and intelligent systems for enforcing sea law and making the sea a safer and more secure place. Imaging is also a key element for the exploration of the underwater world for various scopes, ranging from the predictive maintenance of sub-sea pipelines and other infrastructure projects, to the discovery, documentation, and protection of sunken cultural heritage. The scope of this Special Issue encompasses investigations into techniques and ICT approaches and, in particular, the study and application of signal- and image-based methods and, in turn, exploration of the advantages of their application in the previously mentioned areas

    Proceedings of the Fourth MIT/ONR Workshop on Distributed Information and Decision Systems Motivated by Command-Control-Communications (C3) Problems, June 15-June 26, 1981, San Diego, California

    Get PDF
    "OSP number 85552"--Cover.Library has v. 2 only.Includes bibliographies.Workshop suppported by the Office of Naval Research under contract ONR/N00014-77-C-0532edited by Michael Athans ... [et al.].v.1. Surveillance and target tracking--v.2. Systems architecture and evaluation--v.3. Communication, data bases & decision support--v.4. C3 theory

    Online Audio-Visual Multi-Source Tracking and Separation: A Labeled Random Finite Set Approach

    Get PDF
    The dissertation proposes an online solution for separating an unknown and time-varying number of moving sources using audio and visual data. The random finite set framework is used for the modeling and fusion of audio and visual data. This enables an online tracking algorithm to estimate the source positions and identities for each time point. With this information, a set of beamformers can be designed to separate each desired source and suppress the interfering sources

    Distributed Estimation Using Partial Knowledge about Correlated Estimation Errors

    Get PDF
    Sensornetzwerke werden in vielen verschiedenen Anwendungen, z. B. zur Überwachung des Flugraumes oder zur Lokalisierung in Innenräumen eingesetzt. Dabei werden Sensoren häufig räumlich verteilt, um eine möglichst gute Abdeckung des zu beobachtenden Prozesses zu ermöglichen. Sowohl der Prozess als auch die Sensormessungen unterliegen stochastischem Rauschen. Daher wird oftmals eine Zustandsschätzung, z. B. durch ein Kalmanfilter durchgeführt, welcher die Unsicherheiten aus dem Prozess- und Messmodel systematisch berücksichtigt. Die Kooperation der individuellen Sensorknoten erlaubt eine verbesserte Schätzung des Systemzustandes des beobachteten Prozesses. Durch die lokale Verarbeitung der Sensordaten direkt in den Sensorknoten können Sensornetzwerke flexibel und modular entworfen werden und skalieren auch bei steigender Anzahl der Einzelkomponenten gut. Zusätzlich werden Sensornetzwerke dadurch robuster, da die Funktionsfähigkeit des Systems nicht von einem einzigen zentralen Knoten abhängt, der alle Sensordaten sammelt und verarbeitet. Ein Nachteil der verteilten Schätzung ist jedoch die Entstehung von korrelierten Schätzfehlern durch die lokale Verarbeitung in den Filtern. Diese Korrelationen müssen systematisch berücksichtigt werden, um genau und zuverlässig den Systemzustand zu schätzen. Dabei muss oftmals ein Kompromiss zwischen Schätzgenauigkeit und den begrenzt verfügbaren Ressourcen wie Bandbreite, Speicher und Energie gefunden werden. Eine zusätzliche Herausforderung sind unterschiedliche Netzwerktopologien sowie die Heterogenität lokaler Informationen und Filter, welche das Nachvollziehen der individuellen Verarbeitungsschritte innerhalb der Sensorknoten und der korrelierten Schätzfehler erschweren. Diese Dissertation beschäftigt sich mit der Fusion von Zustandsschätzungen verteilter Sensorknoten. Speziell wird betrachtet, wie korrelierte Schätzfehler entweder vollständig oder teilweise gelernt werden können, um eine präzisere und weniger unsichere fusionierte Zustandsschätzung zu erhalten. Um Wissen über korrelierte Schätzfehler zu erhalten, werden in dieser Arbeit sowohl analytische als auch simulations-basierte Ansätze verfolgt. Eine analytische Berechnung der Korrelationen zwischen Zustandsschätzungen ist möglich, wenn alle Verarbeitungsschritte und Parameter der lokalen Filter bekannt sind. Dadurch kann z. B. ein zentraler Fusionsknoten die die Korrelation zwischen den Schätzfehlern rekonstruieren. Dieses zentralisierte Vorgehen ist jedoch oft sehr aufwendig und benötigt entweder eine hohe Kommunikationsrate oder Vorwissen über die lokale Verarbeitungsschritte und Filterparameter. Daher wurden in den letzten Jahren zunehmend dezentrale Methoden zur Rekonstruktion von Korrelationen zwischen Zustandsschätzungen erforscht. In dieser Arbeit werden Methoden zur dezentralen Nachverfolgung und Rekonstruktion von korrelierten Schätzfehlern diskutiert und weiterentwickelt. Dabei basiert der erste Ansatz auf der Verwendung deterministischer Samples und der zweite auf der Wurzelzerlegung korrelierter Rauschkovarianzen. Um die Verwendbarkeit dieser Methoden zu steigern, werden mehrere wichtige Erweiterungen erarbeitet. Zum Einen schätzen verteilte Sensorknoten häufig den Zustand desselben Systems. Jedoch unterscheiden sie sich in ihrer lokalen Berechnung, indem sie unterschiedliche Zustandsraummodelle nutzen. Ein Beitrag dieser Arbeit ist daher die Verallgemeinerung dezentraler Methoden zur Nachverfolgung in unterschiedlichen (heterogenen) Zustandsräumen gleicher oder geringerer Dimension, die durch lineare Transformationen entstehen. Des Weiteren ist die Rekonstruktion begrenzt auf Systeme mit einem einzigen zentralen Fusionsknoten. Allerdings stellt die Abhängigkeit des Sensornetzwerkes von einem solchen zentralen Knoten einen Schwachpunkt dar, der im Fehlerfall zum vollständigen Ausfall des Netzes führen kann. Zudem verfügen viele Sensornetzwerke über komplexe und variierende Netzwerktopologien ohne zentralen Fusionsknoten. Daher ist eine weitere wichtige Errungenschaft dieser Dissertation die Erweiterung der Methodik auf die Rekonstruktion korrelierter Schätzfehler unabhängig von der genutzten Netzwerkstruktur. Ein Nachteil der erarbeiteten Algorithmen sind die wachsenden Anforderungen an Speicherung, Verarbeitung und Kommunikation der zusätzlichen Informationen, welche für die vollständige Rekonstruktion notwendig sind. Um diesen Mehraufwand zu begrenzen, wird ein Ansatz zur teilweisen Rekonstruktion korrelierter Schätzfehler erarbeitet. Das resultierende partielle Wissen über korrelierte Schätzfehler benötigt eine konservative Abschätzung der Unsicherheit, um genaue und zuverlässige Zustandsschätzungen zu erhalten. Es gibt jedoch Fälle, in denen keine Rekonstruktion der Korrelationen möglich ist oder es eine Menge an möglichen Korrelationen gibt. Dies ist zum Einen der Fall, wenn mehrere Systemmodelle möglich sind. Dies führt dann zu einer Menge möglicher korrelierter Schätzfehler, beispielsweise wenn die Anzahl der lokalen Verarbeitungsschritte bis zur Fusion ungewiss ist. Auf der anderen Seite ist eine Rekonstruktion auch nicht möglich, wenn die Systemparameter nicht bekannt sind oder die Rekonstruktion aufgrund von begrenzter Rechenleistung nicht ausgeführt werden kann. In diesem Fall kann ein Simulationsansatz verwendet werden, um die Korrelationen zu schätzen. In dieser Arbeit werden Ansätze zur Schätzung von Korrelationen zwischen Schätzfehlern basierend auf der Simulation des gesamten Systems erarbeitet. Des Weiteren werden Ansätze zur vollständigen und teilweisen Rekonstruktion einer Menge korrelierter Schätzfehler für mehrere mögliche Systemkonfigurationen entwickelt. Diese Mengen an Korrelationen benötigen entsprechende Berücksichtigung bei der Fusion der Zustandsschätzungen. Daher werden mehrere Ansätze zur konservativen Fusion analysiert und angewendet. Zuletzt wird ein Verfahren basierend auf Gaußmischdichten weiterentwickelt, dass die direkte Verwendung von Mengen an Korrelationen ermöglicht. Die in dieser Dissertation erforschten Methoden bieten sowohl Nutzern als auch Herstellern von verteilten Schätzsystemen einen Baukasten an möglichen Lösungen zur systematischen Behandlung von korrelierten Schätzfehlern. Abhängig von der Art und den Umfang des Wissens über Korrelationen, der Kommunikationsbandbreite sowie der gewünschten Qualität der fusionierten Schätzung kann eine Methode passgenau aus den beschriebenen Methoden zusammengesetzt und angewendet werden. Die somit geschlossene Lücke in der Literatur eröffnet neue Möglichkeiten für verteilte Sensorsysteme in verschiedenen Anwendungsgebieten

    Distributed Random Set Theoretic Soft/Hard Data Fusion

    Get PDF
    Research on multisensor data fusion aims at providing the enabling technology to combine information from several sources in order to form a unifi ed picture. The literature work on fusion of conventional data provided by non-human (hard) sensors is vast and well-established. In comparison to conventional fusion systems where input data are generated by calibrated electronic sensor systems with well-defi ned characteristics, research on soft data fusion considers combining human-based data expressed preferably in unconstrained natural language form. Fusion of soft and hard data is even more challenging, yet necessary in some applications, and has received little attention in the past. Due to being a rather new area of research, soft/hard data fusion is still in a edging stage with even its challenging problems yet to be adequately de fined and explored. This dissertation develops a framework to enable fusion of both soft and hard data with the Random Set (RS) theory as the underlying mathematical foundation. Random set theory is an emerging theory within the data fusion community that, due to its powerful representational and computational capabilities, is gaining more and more attention among the data fusion researchers. Motivated by the unique characteristics of the random set theory and the main challenge of soft/hard data fusion systems, i.e. the need for a unifying framework capable of processing both unconventional soft data and conventional hard data, this dissertation argues in favor of a random set theoretic approach as the first step towards realizing a soft/hard data fusion framework. Several challenging problems related to soft/hard fusion systems are addressed in the proposed framework. First, an extension of the well-known Kalman lter within random set theory, called Kalman evidential filter (KEF), is adopted as a common data processing framework for both soft and hard data. Second, a novel ontology (syntax+semantics) is developed to allow for modeling soft (human-generated) data assuming target tracking as the application. Third, as soft/hard data fusion is mostly aimed at large networks of information processing, a new approach is proposed to enable distributed estimation of soft, as well as hard data, addressing the scalability requirement of such fusion systems. Fourth, a method for modeling trust in the human agents is developed, which enables the fusion system to protect itself from erroneous/misleading soft data through discounting such data on-the-fly. Fifth, leveraging the recent developments in the RS theoretic data fusion literature a novel soft data association algorithm is developed and deployed to extend the proposed target tracking framework into multi-target tracking case. Finally, the multi-target tracking framework is complemented by introducing a distributed classi fication approach applicable to target classes described with soft human-generated data. In addition, this dissertation presents a novel data-centric taxonomy of data fusion methodologies. In particular, several categories of fusion algorithms have been identifi ed and discussed based on the data-related challenging aspect(s) addressed. It is intended to provide the reader with a generic and comprehensive view of the contemporary data fusion literature, which could also serve as a reference for data fusion practitioners by providing them with conducive design guidelines, in terms of algorithm choice, regarding the specifi c data-related challenges expected in a given application
    • …
    corecore