8 research outputs found

    Automatic Detection of Vague Words and Sentences in Privacy Policies

    Full text link
    Website privacy policies represent the single most important source of information for users to gauge how their personal data are collected, used and shared by companies. However, privacy policies are often vague and people struggle to understand the content. Their opaqueness poses a significant challenge to both users and policy regulators. In this paper, we seek to identify vague content in privacy policies. We construct the first corpus of human-annotated vague words and sentences and present empirical studies on automatic vagueness detection. In particular, we investigate context-aware and context-agnostic models for predicting vague words, and explore auxiliary-classifier generative adversarial networks for characterizing sentence vagueness. Our experimental results demonstrate the effectiveness of proposed approaches. Finally, we provide suggestions for resolving vagueness and improving the usability of privacy policies.Comment: 10 page

    Modeling Language Vagueness In Privacy Policies Using Deep Neural Networks

    No full text
    Website privacy policies are too long to read and difficult to understand. The over-sophisticated language undermines the effectiveness of privacy notices. People become less willing to share their personal information when they perceive the privacy policy as vague. The goal of this paper is to decode vagueness from a natural language processing perspective. While thoroughly identifying the vague terms and their linguistic scope remains an elusive challenge, in this work we seek to learn vector representations of words in privacy policies using deep neural networks. The vector representations are fed to an interactive visualization tool (LSTMVis) to test on their ability to discover syntactically and semantically related terms. The approach holds promise for modeling and understanding language vagueness

    Défauts d'intégrité contextuelle liés à la collecte de données personnelles par des applications de médias sociaux sur Android

    Get PDF
    Les applications de médias sociaux démultiplient le volume de données contextuelles collectées corrélant numérique et environnement physique en temps réel. Cela a de nombreuses conséquences, encore peu appréhendées, pouvant porter atteinte à la vie privée de leurs usagers. Nous explorons la notion d’« intégrité contextuelle » lors de la collecte de données de dix applications hégémoniques de médias sociaux sur la plateforme mobile Android. À savoir, nous évaluons l’écart entre les attentes d’un utilisateur et l’accès effectif aux ressources du mobile et à ses données personnelles. Ce mémoire présente trois études complémentaires : 1. une étude a priori qui permet de cerner les pratiques de collecte annoncées (politiques de confidentialité, autorisations et permissions); 2. une analyse pratique qui instrumente le mobile pour recueillir la fréquence et les circonstances d’accès aux ressources de localisation et de messagerie texte, régulées par des autorisations; 3. une étude de la viabilité d’une solution permettant à l’utilisateur de paramétrer les permissions concédées aux applications en fonction du contexte d’utilisation. Nous mettons en lumière des défauts d’intégrité contextuelle, tant au niveau de l’étude a priori (politiques peu claires, incohérences, défauts structurels), que de l’étude pratique (captage de la localisation à chaque seconde pour certaines applications). La solution proposée permet de mitiger ces problèmes et a peu d’impact sur les fonctionnalités des applications

    Adressierung des Privacy Paradoxon im B2C-E-Commerce

    Get PDF
    Das Angebot an Dienstleistungen im Internet ist ein fundamentaler Teil des Internets geworden. Im Bereich des B2C-E-Commerce steigt die Zahl der Online-Angebote und auch der Käufer rasant an. Damit die Käufer die Angebote im Internet kaufen können, müssen sie den jeweiligen Datenschutzbestimmungen der einzelnen Online-Shops zustimmen. Da diese in den meisten Fällen sehr lang und auch sehr schwer zu lesen sind, stimmen die Käufer meistens den Datenschutzbestimmungen zu ohne diese zu lesen, obwohl den meisten Käufern der Schutz ihrer personenbezogenen Daten wichtig ist. Dieses Verhalten wird als Privacy Paradoxon bezeichnet und im Rahmen dieser Arbeit adressiert. Zum Entgegenwirken des Privacy Paradoxon wird in dieser Arbeit ein Datenschutzmodell konzipiert und anhand eines Monitoring Systems (Empfehlungssystems) evaluiert. Das entwickelte Monitoring System ist intuitiv und nachvollziehbar aufgebaut und soll das Bewusstsein des einzelnen Nutzers stärken. Für die Konzeption des Datenschutzmodells wird eine repräsentative Menge aktueller Datenschutzbestimmungen aus dem deutschen B2C-E-Commerce analysiert. Die prototypische Umsetzung des Monitoring Systems erkennt die besuchten Online-Shops automatisch, wertet die Datenschutzerklärungen dieser gegen die vom Nutzer eingestellten Datenschutzpräferenzen aus und informiert den Nutzer visuell über die Verwendung seiner personenbezogenen Daten. Dadurch kann der Nutzer auf einen Blick erkennen welche Datenschutzeinstellungen nicht zu den persönlich eingestellten Datenschutzpräferenzen passen und selbst entscheiden, ob er bei diesem Online-Shop einkaufen möchte oder nicht. Die erarbeiteten Ergebnisse werden aus wissenschaftlicher und prototypischer Sicht evaluiert, validiert und reflektiert und es werden Ansatzpunkte für weitere Forschungsarbeiten aufgezeigt.:Inhaltsverzeichnis I Abbildungsverzeichnis IV Tabellenverzeichnis VI Abkürzungsverzeichnis VIII 1 Einführung 1 1.1 Ausgangssituation und Handlungsbedarf 1 1.2 Forschungsziel der Arbeit 5 1.3 Forschungsmethodik 6 1.4 Struktur der Dissertation 12 2 Stand der Technik und Grundlagen zum E-Commerce und Datenschutz 15 2.1 Elektronische Geschäftsabwicklung 15 2.1.1 Historische Entwicklung der Geschäftsabwicklung 15 2.1.2 Definition und Formen des E-Commerce 17 2.1.3 Auswirkungen des deutschen E-Commerce auf den Datenschutz 20 2.2 Datenschutz 25 2.2.1 Definition von Datenschutz 25 2.2.2 Bundesdatenschutzgesetz 28 2.2.3 Datenschutzgrundverordnung 30 2.2.4 Internationale Betrachtung von Datenschutz 33 2.2.5 Datenschutz im E-Commerce 35 2.2.6 Analyse des Datenschutz-Bewusstseins 38 2.2.7 Manuelle und automatisierte Datenschutzempfehlungssysteme 43 2.3 Konkretisierung der Forschungslücke 45 2.4 Zusammenfassung 46 3 Konzeption eines Datenschutzmodells 48 3.1 Konzeptionelle Grundlagen der Modellierung 48 3.1.1 Modellbegriff 48 3.1.2 Modellierung 49 3.1.3 Modellierungssprachen 51 3.2 Datenschutzmodell 53 3.2.1 Hintergründe und Methodik 53 3.2.2 Identifikation von Datenquellen 54 3.2.3 Systemanalyse 57 3.2.4 Auswertung der Analyse 67 3.2.5 Konzeption des Datenschutzmodells 74 3.2.6 Technische Abbildung des Datenschutzmodells 82 3.2.7 Änderung des Datenschutzmodells 83 3.3 Zusammenfassung 83 4 Entwurf einer Softwarearchitektur für den Prototyp 85 4.1 Konzeptionelle Grundlagen der Softwarearchitektur 85 4.2 Ziele des zu erstellenden Prototyps 90 4.3 Anforderungen an den zu erstellenden Prototyp 90 4.3.1 Funktionale Anforderungen an den zu erstellenden Prototyp 91 4.3.2 Nicht-funktionale Anforderungen an den zu erstellenden Prototyp 95 4.3.3 Zusammenfassung der Anforderungen im Anforderungskatalog 97 4.4 Kontextabgrenzung des Prototyps 98 4.4.1 Fachlicher Kontext 98 4.4.2 Technischer Kontext 102 4.5 Bausteinsichten des Prototyps 102 4.5.1 Verfeinerungsebene 1 der PPM-App 102 4.5.2 Verfeinerungsebene 2 der PPM-App 104 4.6 Laufzeitsicht des Prototyps 122 4.7 Prototypische Umsetzung 126 4.8 Änderung des Datenschutzmodells im Forschungsprototyp 128 4.9 Zusammenfassung 128 5 Evaluation und Validierung des Datenschutzmodells 130 5.1 Wissenschaftliche Evaluation 130 5.1.1 Grundsätze ordnungsmäßiger Modellierung 131 5.1.2 Qualitätsbewertung des Datenschutzmodells 132 5.1.3 Evaluation und Diffusion von Vorarbeiten und Ergebnissen 135 5.2 Prototypische Validierung 136 5.2.1 Privacy-Server 137 5.2.2 Privacy-Admin-Add-On 140 5.2.3 Privacy-Add-On 143 5.2.4 Adressierung der Anforderungen 152 5.3 Zusammenfassung 152 6 Fazit und Ausblick 154 6.1 Zusammenfassung und Reflexion der Arbeit 154 6.1.1 Zusammenfassung der Arbeit 154 6.1.2 Reflexion der Arbeit 155 6.2 Ausblick auf weiteren Forschungsbedarf 157 Literaturverzeichnis XI Anhang A: Installationsanleitung der PPM-App XXXIII Anhang B: Privacy Paradoxon Model im XML-Format XXXVII Anhang C: Privacy Paradoxon Model im JSON-Format XLV Anhang D: Online-Shop Kategorien im JSON-Format LIII Curriculum Vitae LIV Selbständigkeitserklärung LVII

    Data-Driven, Personalized Usable Privacy

    Get PDF
    We live in the "inverse-privacy" world, where service providers derive insights from users' data that the users do not even know about. This has been fueled by the advancements in machine learning technologies, which allowed providers to go beyond the superficial analysis of users' transactions to the deep inspection of users' content. Users themselves have been facing several problems in coping with this widening information discrepancy. Although the interfaces of apps and websites are generally equipped with privacy indicators (e.g., permissions, policies, ...), this has not been enough to create the counter-effect. We particularly identify three of the gaps that hindered the effectiveness and usability of privacy indicators: - Scale Adaptation: The scale at which service providers are collecting data has been growing on multiple fronts. Users, on the other hand, have limited time, effort, and technological resources to cope with this scale. - Risk Communication: Although providers utilize privacy indicators to announce what and (less often) why they need particular pieces of information, they rarely relay what can be potentially inferred from this data. Without this knowledge, users are less equipped to make informed decisions when they sign in to a site or install an application. - Language Complexity: The information practices of service providers are buried in complex, long privacy policies. Generally, users do not have the time and sometimes the skills to decipher such policies, even when they are interested in knowing particular pieces of it. In this thesis, we approach usable privacy from a data perspective. Instead of static privacy interfaces that are obscure, recurring, or unreadable, we develop techniques that bridge the understanding gap between users and service providers. Towards that, we make the following contributions: - Crowdsourced, data-driven privacy decision-making: In an effort to combat the growing scale of data exposure, we consider the context of files uploaded to cloud services. We propose C3P, a framework for automatically assessing the sensitivity of files, thus enabling realtime, fine-grained policy enforcement on top of unstructured data. - Data-driven app privacy indicators: We introduce PrivySeal, which involves a new paradigm of dynamic, personalized app privacy indicators that bridge the risk under- standing gap between users and providers. Through PrivySeal's online platform, we also study the emerging problem of interdependent privacy in the context of cloud apps and provide a usable privacy indicator to mitigate it. - Automated question answering about privacy practices: We introduce PriBot, the first automated question-answering system for privacy policies, which allows users to pose their questions about the privacy practices of any company with their own language. Through a user study, we show its effectiveness at achieving high accuracy and relevance for users, thus narrowing the complexity gap in navigating privacy policies. A core aim of this thesis is paving the road for a future where privacy indicators are not bound by a specific medium or pre-scripted wording. We design and develop techniques that enable privacy to be communicated effectively in an interface that is approachable to the user. For that, we go beyond textual interfaces to enable dynamic, visual, and hands-free privacy interfaces that are fit for the variety of emerging technologies
    corecore