3 research outputs found

    Detecting false testimonies in reputation systems using self-organizing maps

    Get PDF
    It has been demonstrated that rating trust and reputation of individual nodes is an effective approach in distributed environments in order to improve security, support decision-making and promote node collaboration. Nevertheless, these systems are vulnerable to deliberate false or unfair testimonies. In one scenario, the attackers collude to give negative feedback on the victim in order to lower or destroy its reputation. This attack is known as bad mouthing attack. In another scenario, a number of entities agree to give positive feedback on an entity (often with adversarial intentions). This attack is known as ballot stuffing. Both attack types can significantly deteriorate the performances of the network. The existing solutions for coping with these attacks are mainly concentrated on prevention techniques. In this work, we propose a solution that detects and isolates the abovementioned attackers, impeding them in this way to further spread their malicious activity. The approach is based on detecting outliers using clustering, in this case self-organizing maps. An important advantage of this approach is that we have no restrictions on training data, and thus there is no need for any data pre-processing. Testing results demonstrate the capability of the approach in detecting both bad mouthing and ballot stuffing attack in various scenarios

    Detecting a Colluding Subset in a Simple Two-Dimensional Game

    Get PDF
    Collusion is covert co-operation between the participants of a game. Detecting the colluding players can require discerning and understanding the player's motivation, which is often difficult task even for humans. In this paper we analyse experimental data from a simple two-dimensional game using synthetic players. We calculate information gains of the features in the data to show how well they indicate collusion. Then we examine J4.8 decision tree classifiers learned from the data and use them to detect the colluding subsets

    Investigating conflicts of interests between stakeholders of public display app stores

    Get PDF
    Public displays showing static content such as news and advertisement are very common, but are often ignored of users expecting them to show uninteresting content. Although applications showing dynamic content which could reduce the display blindness exist, distribution channels and concepts for successfully moderating user-generated content on public displays are still missing. We developed an app store for public displays and analyzed six potential moderation strategies for, in particular, user-generated content. To do this, we conducted an online survey. Survey participants mostly specified that content moderation is necessary and preferred a reactive moderation strategy. Moreover, they expected their messages to appear instantly. Therefore, we developed the UniDisplay application and did an in-the-wild-deployment to investigate the impacts of moderation delays on user behavior. We conducted data and content analyses, observations, a survey and interviews with users of our application. Hence, we can show that already a short delay time of messages (90 seconds) may confuse users and that the delay time is not the only strong factor for posting to a display. On this basis, we built a theoretical concept for integrating content moderation in public display app stores. In the long term, understanding the impacts of moderation strategies for public displays will help to build trust between different stakeholders such as display owners and users. In addition, it will cause public display content to become more dynamic and therefore more interesting for the users.Displays im öffentlichen Raum, die statischen Inhalt wie z.B. Nachrichten oder Werbung anzeigen, sind weit verbreitet. Sie werden jedoch sehr oft von Benutzern ignoriert, da diese erwarten, dass nur uninteressanter Inhalt angezeigt wird. Obwohl bereits Anwendungen existieren, die dynamischen Inhalt anzeigen und damit die Aufmerksamkeit der Benutzer erhöhen könnten, fehlen Plattformen zur Verteilung der Anwendungen und Konzepte für die erfolgreiche Moderation von dynamischem Inhalt auf öffentlichen Displays. Wir entwickelten einen App Store für öffentliche Displays und analysierten sechs potentielle Moderationsstrategien, insbesondere für nutzergenerierten Inhalt. Wir führten außerdem eine Online-Umfrage durch. Die Teilnehmer gaben mehrheitlich an, dass Inhaltsmoderation notwendig ist und bevorzugten eine reaktive Moderationsstrategie. Außerdem erwarteten sie, dass Nachrichten sofort auf dem Display erscheinen. Des Weiteren entwickelten wir das UniDisplay und führten Daten- und Inhaltsanalysen, Beobachtungen, eine Umfrage und Interviews mit den Benutzern unserer Anwendung durch. Wir zeigen, dass bereits eine kurze Verzögerungszeit der Nachrichten (90 Sekunden) für Verwirrung bei den Benutzern sorgen kann und dass die Verzögerungszeit nicht der einzige Faktor ist, der beim Veröffentlichen einer Nachricht relevant ist. Auf dieser Basis entwickelten wir ein theoretisches Konzept wie Inhaltsmoderation in App Stores für öffentliche Displays integriert werden kann. Auf lange Sicht wird das Verständnis über die Auswirkungen verschiedener Moderationsstrategien auf Displays dazu beitragen, dass das Vertrauen zwischen den verschiedenen Interessengruppen wie Displaybesitzern und Benutzern wächst. Zusätzlich hilft das Verständnis dabei, dass der Inhalt von öffentlichen Displays dynamischer und damit auch interessanter für die Benutzer wird
    corecore