3 research outputs found
Non-parametric differentially private confidence intervals for the median
https://arxiv.org/abs/2106.1033
Secure and Privacy-Preserving Cyber-Physical Systems
RÉSUMÉ
Dans cette thèse de doctorat, nous étudions le problème de conception d’estimateur et de
commande préservant la confidentialité de données dans un système multi-algent composé
de systèmes individuels linéaires incertains ainsi que le problème de conception d’attaques
furtives et d’estimateurs résilients aux attaques dans les système cyber-physiques. Les systèmes
de surveillance et de commande Ă grande Ă©chelle permettant une infrastructure de
plus en plus intelligente s’appuient de plus en plus sur des données sensibles obtenues auprès
d’agents privés. Par exemple, ces systèmes collectent des données de localisation d’utilisateurs
d’un système de transport intelligent ou des données médicales de patients pour une détection
intelligente d’épidémie. Cependant, les considérations de confidentialité peuvent rendre
les agents réticents à partager les informations nécessaires pour améliorer les performances
d’une infrastructure intelligente. Dans le but d’encourager la participation de ces agents, il
s’avère important de concevoir des algorithmes qui traitent les données d’une manière qui
preserve leur confidentialité.
Durant la première partie de cette thèse, nous considérons des scénarios dans lesquels les
systèmes individuels sont indépendants et sont des systèmes linéaires gaussiens. Nous revisitons
les problèmes de filtrage de Kalman et de commande linéaire quadratique gaussienne
(LQG), sous contraintes de preservation de la confidentialité. Nous aimerions garantir la
confidentialité differentielle, une définition formelle et à la pointe de la technologie concernant
la confidentialité, et qui garantit que la sortie d’un algorithme ne soit pas trop sensible
aux données collectées auprès d’un seul agent. Nous proposons une architecture en deux
étapes, qui agrège et combine d’abord les signaux des agents individuels avant d’ajouter du
bruit préservant la confidentialité et post-filtrer le résultat à publier. Nous montrons qu’une
amélioration significative des performances est offerte par cette architecture par rapport aux
architectures standards de perturbations d’entrée à mesure que le nombre de signaux d’entrée
augmente. Nous prouvons qu’un pré-filtre optimal d’agrégation statique peut être conçu en
résolvant un programme semi-défini. L’architecture en deux étapes, que nous développons
d’abord pour le filtrage de Kalman, est ensuite adaptée au problème de commande LQG
en exploitant le principe de séparation. A travers des simulations numériques, nous illustrons
les améliorations de performance de notre architecture par rapport aux algorithmes de
confidentialité différentielle qui n’utilisent pas d’agrégation de signal.----------ABSTRACT
This thesis studies the problem of privacy-preserving estimator and control design in a multiagent
system composed of uncertain individual linear systems and the problem of design
of undetectable attacks and attack-resilient estimators for cyber-physical systems. Largescale
monitoring and control systems enabling a more intelligent infrastructure increasingly
rely on sensitive data obtained from private agents, e.g., location traces collected from the
users of an intelligent transportation system or medical records collected from patients for
intelligent health monitoring. Nevertheless, privacy considerations can make agents reluctant
to share the information necessary to improve the performance of an intelligent infrastructure.
In order to encourage the participation of these agents, it becomes then critical to design
algorithms that process information in a privacy-preserving way. The first part of this thesis
consider scenarios in which the individual agent systems are linear Gaussian systems and
are independent. We revisit the Kalman filtering and Linear Quadratic Gaussian (LQG)
control problems, subject to privacy constraints. We aim to enforce differential privacy, a
formal, state-of-the-art definition of privacy ensuring that the output of an algorithm is not
too sensitive to the data collected from any single participating agent. We propose a twostage
architecture, which first aggregates and combines the individual agent signals before
adding privacy-preserving noise and post-filtering the result to be published. We show a
significant performance improvement offered by this architecture over input perturbation
schemes as the number of input signals increases and that an optimal static aggregation stage
can be computed by solving a semidefinite program. The two-stage architecture, which we
develop first for Kalman filtering, is then adapted to the LQG control problem by leveraging
the separation principle. We provide numerical simulations that illustrate the performance
improvements over differentially private algorithms without first-stage signal aggregation.
The second part of this thesis considers the problem of privacy-preserving estimator design
for a multi-agent system composed of individual linear time-invariant systems affected by
uncertainties whose statistical properties are not available. Only bounds are given a priori
for these uncertainties. We propose a privacy-preserving interval estimator architecture,
which releases publicly estimates of lower and upper bounds for an aggregate of the states
of the individual systems. Particularly, we add a bounded privacy-preserving noise to each
participant’s data before sending it to the estimator. The estimates published by the observer
guarantee differential privacy for the agents’ data. We provide a numerical simulation that
illustrates the behavior of the proposed architecture