62 research outputs found

    Dégradation de données par publication éphémÚre

    Get PDF
    Le respect de la vie privĂ©e est un droit fondamental mais difficile Ă  garantir sur Internet. MalgrĂ© les recommandations des experts, le principe de minimisation des donnĂ©es -- qui exige notamment que les donnĂ©es soient effacĂ©es aussitĂŽt qu'elles ne sont plus strictement nĂ©cessaires (rĂ©tention minimale) -- est rarement appliquĂ©, en raison d'intĂ©rĂȘts divergents entre les hĂ©bergeurs des donnĂ©es personnelles et les utilisateurs. Pour diminuer l'impact de ces divergences, une alternative Ă  la rĂ©tention minimale a Ă©tĂ© proposĂ©e, la dĂ©gradation des donnĂ©es : au lieu d'ĂȘtre complĂštement effacĂ©e, une donnĂ©e peut ĂȘtre progressivement dĂ©gradĂ©e vers des Ă©tats moins prĂ©cis qui protĂšgent mieux la vie privĂ©e de l'utilisateur tout en conservant (partiellement) l'utilitĂ© de la donnĂ©e initiale. Cependant, aucune architecture n'existe Ă  l'heure actuelle qui garantisse la dĂ©gradation des donnĂ©es sans un gestionnaire de base de donnĂ©es de confiance. En utilisant un systĂšme de publication Ă©phĂ©mĂšre (une donnĂ©e ne peut plus ĂȘtre accĂ©dĂ©e aprĂšs une date d'expiration fixĂ©e Ă  l'avance), nous proposons dans ce travail une architecture dĂ©centralisĂ©e qui garantit la dĂ©gradation des donnĂ©es sans aucun acteur de confiance dans le systĂšme

    An Analysis Grid for Privacy-related Properties of Social Network Systems

    No full text
    International audienceSocial Network Systems (SNSs) are the predominant kind of web service around the world. They attract many users seeking popularity, entertainment and network building, along with ease of use. Most current SNSs are based on centralized designs, which are less likely to improve privacy since there is a single and central authority with exclusive administration control over user information. Many proposals have been introduced that work towards decentralizing the infrastructure support in order to enhance privacy in SNSs. However, designing decentralized social network systems (DSNS) driven by privacy is a hard task because privacy is impacted by most design choices. This paper proposes a multicriteria analysis grid designed to evaluate several properties of SNSs related to privacy trade-offs. Based on the analysis grid result, this paper also presents the application of lattice-based tools to classify and visualize social network systems in privacy-related hierarchies

    Le droit à l'oubli : Présentation du projet DAO

    Get PDF
    La notion d'oubli correspond Ă  deux rĂ©alitĂ©s bien distinctes. D'une part, le fait d'oublier lors d'une dĂ©faillance de la mĂ©moire, qui renvoie Ă  un acte involontaire pouvant ĂȘtre prĂ©judiciable Ă  son auteur ou Ă  un tiers. D'autre part, le droit Ă  l'oubli qui consiste en une prĂ©rogative qu'aurait chaque individu d'exiger que ne soient plus accessibles Ă  tous certains Ă©vĂ©nements ou donnĂ©es le concernant. Il s'agit donc d'une soustraction Ă  la mĂ©moire collective. A l'heure du tout numĂ©rique, le droit Ă  l'oubli Ă©voque nĂ©cessairement l'effacement de donnĂ©es informatiques et renvoie au droit de l'Internet et des rĂ©seaux. Si l'idĂ©e d'un droit Ă  l'oubli numĂ©rique n'est pas nouvelle, elle se concrĂ©tise pour la premiĂšre fois de façon spĂ©cifique dans la proposition de rĂšglement du Parlement europĂ©en et du Conseil relatif Ă  la protection des donnĂ©es Ă  caractĂšre personnel et Ă  la libre circulation de ces donnĂ©es, qui consacre un article au droit Ă  l'oubli et Ă  l'effacement. L'ampleur du phĂ©nomĂšne, son actualitĂ© et ses diffĂ©rentes manifestations nous conduisent Ă  nous interroger sur la maniĂšre dont les dispositifs actuels devraient Ă©voluer pour rĂ©pondre aux dĂ©fis du numĂ©rique. Dans ce contexte, la rĂ©flexion peut ĂȘtre menĂ©e sous trois angles, un angle juridique, un angle sociologique ainsi qu'un angle technique

    La protection des donnĂ©es personnelles, un enjeu organisationnel et technique ∗

    No full text
    1 De la rĂ©glementation inconfortable Ă  l’impĂ©ratif opĂ©rationnel Depuis l’avĂšnement de la loi “Informatique et LibertĂ©s”en 1978, l’image de la protection des donnĂ©es personnelles auprĂšs du public et de l’industrie a beaucoup Ă©voluĂ©. Originellement motivĂ©e par un besoin de contrĂŽle des capacitĂ©s de traitement et de recoupement de fichiers de l’État, son application Ă  l’ensemble des acteurs a pu en faire la bĂȘte noire de certaines entreprises. En effet, la loi 78-17 est une collection de rĂšgles trĂšs contraignantes sur la collecte, le traitement, la conservation, la transmission... de toute information se rapportant Ă  une personne physique, ce qui peut impacter une part significative de l’activitĂ© Ă©conomique. Si l’explosion des usages sur Internet a rendu encore plus prĂ©gnantes ces contraintes, elle a Ă©galement accentuĂ© la prise de conscience des risques liĂ©s Ă  la vie privĂ©e et de la nĂ©cessitĂ© des prĂ©cautions liĂ©es Ă  la manipulation de donnĂ©es Ă  caractĂšre personnel, afin d’éviter des “brĂšches de vie privĂ©e”qui peuvent s’avĂ©rer dĂ©sastreuses pour les personnes concernĂ©es, pour l’image des organisations impliquĂ©es et pour la sĂ©curitĂ© de leur patrimoine informationnel. Aujourd’hui, le renvoi dos Ă  dos des exigences de la protection des donnĂ©es personnelles, de la sĂ©curitĂ© des systĂšmes d’information et des impĂ©ratifs mĂ©tier de l’entreprise semble relĂ©guĂ© Ă  un combat d’arriĂšre-garde. La protection de la vie privĂ©e (non limitĂ©e au simple respect de la loi de 1978) est devenue l’un des principaux axes de travail des RSSI, en intrication avec les autres exigence

    Agents utilisateurs pour la protection des données personnelles : modélisation logique et outils informatiques

    No full text
    Usage in the domain of multi-agent systems has evolved so as to integrate human users more closely in the applications. Manipulation of private information by autonomous agents has then called for an adapted protection of personal data. This work first examines the legal context of privacy protection and the various computing methods aiming at personal data protection.Surveys show a significant need for AI-based solutions, allowing both reasoning on the regulations themselves and automatically adapting an agent's behaviour to these regulations. The Privacy-Aware (PAw) agent model and the Deontic Logic for Privacy, designed to deal with regulations coming from multiple authorities, are proposed here in this perspective. The agent's normative reasoning component analyses its heterogeneous context and provides a consistent policy for dealing with personal information. PAw agent then automatically controls its own usage of the data with regard to the resulting policy. In order to enforce policies in a remote manner, we study the different distributed application architectures oriented towards privacy protection, several of them based on the principles of Trusted Computing. We propose a complementary one, illustrating a different possible usage of this technology. Implementation of the PAw agent allows demonstration of its principles over three scenarios, thus showing the adaptability of theagent to its normative context and the influence of the regulations over the behaviour of the application.Les usages dans le domaine des systÚmes multi-agents ont évolué de maniÚre à intégrer davantage les utilisateurs humains dans les applications. La manipulation d'informations privées par des agents autonomes appelle alors à une protection adaptée des données personnelles. Les présents travaux examinent d'abord le contexte légal de la protection de la vie privée, ainsi queles divers moyens informatiques destinés à la protection des données personnelles. Il en ressort un besoin de solutions fondées sur les méthodes d'IA, autorisant à la fois un raisonnement sur les réglementations et l'adaptation du comportement d'un agent à ces réglementations. Dans cette perspective, nous proposons le modÚle d'agent PAw (Privacy-Aware) et la logique DLP (Deontic Logic for Privacy), conçue pour traiter des réglementations provenant d'autorités multiples. Le composant de raisonnement normatif de l'agent analyse son contexte hétérogÚne et fournit une politique cohérente pour le traitement des données personnelles. L'agent PAw contrÎle alors automatiquement sa propre utilisation des données en regard de cette politique. Afin d'appliquer cette politique de maniÚre distante, nous étudions les différentes architectures d'applications distribuées orientées vers la protection de la vie privée, notamment celles fondées sur les principes du Trusted Computing. Nous en proposons une complémentaire, illustrant la possibilité d'utiliser différemment cette technologie. L'implémentation de l'agent PAw permet la démonstration de ses principes sur trois scénarios, montrant ainsi l'adaptabilité de l'agent à son contexte normatif et l'influence des réglementations sur le comportement de l'application

    Les systĂšmes multi-agents normatifs : organisations, institutions et normes

    No full text
    National audienceNous présentons ici (dans une optique de vulgarisation scientifique) le concept de systÚme multi-agent normatif, utilisé en intelligence artificielle distribuée depuis quelques années. Ces systÚmes permettent de construire des sociétés organisées d'agents artificiels, permettant par exemple de simuler des organisations sociales ou de mettre en oeuvre des politiques de sécurité dans des applications complexes. Les systÚmes multi-agents normatifs sont basés sur les concepts d'institutions et de normes, régissant l'organisation des agents, leur comportement et leurs interactions. La représentation des normes, leur origine, leur violation par les agents, les conséquences de ces violations sont autant de sources de problÚmes actuellement abordés par les communautés scientifiques concernées

    Protection de la vie privée : appréhension de concepts éthiques par un agent autonome

    No full text
    National audienceLe respect de la vie privĂ©e, au travers de la protection des donnĂ©es personnelles, est un domaine du droit qui concerne directement l'informatique. Lorsque l'on conçoit des agents logiciels, capables de prise de dĂ©cision autonome, qui ont la capacitĂ© ou mĂȘme la mission de stocker, transmettre et d'une maniĂšre gĂ©nĂ©rale de manipuler des donnĂ©es Ă  caractĂšre personnel, il convient de s'assurer que le traitement de ces informations se fait en accord avec des rĂšgles Ă©thiques de diverses natures, visant Ă  protĂ©ger l'intimitĂ© des personnes concernĂ©es : textes lĂ©gislatifs et rĂ©glementaires, contrats, prĂ©fĂ©rences des utilisateurs... Une maniĂšre classique de permettre Ă  un agent de manipuler ces concepts est de les reprĂ©senter sous la forme d'un langage logique associĂ© Ă  des mĂ©canismes de raisonnement adaptĂ©s. L'exemple trĂšs classique du choix de logiques dĂ©ontiques (dĂ©crivant les notions d'obligation, d'interdiction, de permission) pour dĂ©crire des rĂšgles de protection des donnĂ©es personnelles permet d'avoir un aperçu des problĂšmes philosophiques et techniques que pose le besoin d'adaptation d'un agent autonome Ă  un contexte normatif posant des rĂšgles morales sur son comportement
    • 

    corecore