2,866 research outputs found
A Hybrid Artificial Reputation Model
Agent interaction in a community such as an online buyer-seller scenario is often risky and uncertain. An agent interacts with other agents where initially they know nothing about each other. Currently many reputation models are developed that help consumers select more reputable and reliable service providers. Reputation models also help agents to make a decision on who they should trust and transact with in the future. These reputation models are either built on interaction trust that involves direct experience as a source of information, or they are built upon witness information, also known as word-of-mouth, that involves the reports provided by others. Neither the interaction trust nor the witness information models alone fully succeed in such uncertain interactions. This thesis research introduces the hybrid reputation model combining both interaction trust and witness information to address the shortcomings of existing reputation models when taken separately. Experiments reveal that the hybrid approach leads to better selection of trustworthy agents where consumers select more reputed service providers, eventually lead to more gains by the consumer. Furthermore, the trust model developed is used in calculating trust values of service providers for the case study with a live website ecommerce
Blockchain-Based Distributed Trust and Reputation Management Systems: A Survey
Distributed Ledger Technologies (DLTs), like Blockchain, are characterized by features such as transparency, traceability, and security by design. These features make the adoption of Blockchain attractive to enhance information security, privacy, and trustworthiness in very different contexts. This paper provides a comprehensive survey and aims at analyzing and assessing the use of Blockchain in the context of Distributed Trust and Reputation Management Systems (DTRMS). The analysis includes academic research as well as initiatives undertaken in the business domain. The paper defines two taxonomies for both Blockchain and DTRMS and applies a Formal Concept Analysis. Such an approach allowed us to identify the most recurrent and stable features in the current scientific landscape and several important implications among the two taxonomies. The results of the analysis have revealed significant trends and emerging practices in the current implementations that have been distilled into recommendations to guide Blockchain's adoption in DTRMS systems
Proceedings of RSEEM 2006 : 13th Research Symposium on Emerging Electronic Markets
Electronic markets have been a prominent topic of research for the past decade. Moreover, we have seen the rise but also the disappearance of many electronic marketplaces in practice. Today, electronic markets are a firm component of inter-organisational exchanges and can be observed in many branches.
The Research Symposium on Emerging Electronic Markets is an annual conference bringing together researchers working on various topics concerning electronic markets in research and practice. The focus theme of the13th Research Symposium on Emerging Electronic Markets (RSEEM 2006) was ?Evolution in Electronic Markets?. Looking back at more than 10 years of research activities in electronic markets, the evolution can be well observed. While electronic commerce activities were based largely on catalogue-based shopping, there are now many examples that go beyond pure catalogues. For example, dynamic and flexible electronic transactions such as electronic negotiations and electronic auctions are enabled. Negotiations and auctions are the basis for inter-organisational trade exchanges about services as well as products. Mass customisation opens up new opportunities for electronic markets. Multichannel electronic commerce represents today?s various requirements posed on information and communication technology as well as on organisational structures. In recent years, service-oriented architectures of electronic markets have enabled ICT infrastructures for supporting flexible e-commerce and e-market solutions.
RSEEM 2006 was held at the University of Hohenheim, Stuttgart, Germany in September 2006. The proceedings show a variety of approaches and include the selected 8 research papers. The contributions cover the focus theme through conceptual models and systems design, application scenarios as well as evaluation research approaches
A multi-agent architecture applying trust and reputation over unknown partners for live video distributed transcoding in open environments
Dissertação (Mestrado em Informática) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Brasília, 2021.Projetistas de sistemas tem sido confrontados com aplicações e sistemas do mundo
real que são inerentemente distribuídas e abertas. Um sistema inerentemente aberto é
um no qual é impossível estabelecer controle global ou, também dizendo, aquele no qual
uma única entidade não é capaz de possuir uma descrição completa do estado do sistema.
Sistemas que atendem a essa descrição são complexos, e projetá-los é desafiante. Uma
forma de lidar com esses desafios é abordar o problema como o projeto de um sistema
multiagente. Um agente é um sistema computadorizado dotado de autonomia para agir
em nome de seu proprietário. Um sistema multiagente é uma sociedade de agentes que
interagem sob determinadas regras para alcançar metas comuns ou individuais. Um exemplo de problema complexo que poderia se beneficiar de uma abordagem multiagente é a
distribuição de vídeo através da Internet.
Uma das razões para o crescimento rápido do consumo de dados na Internet é a
crescente demanda por conteúdo em vídeo. Entre os provedores de streaming de vídeo
ao vivo, a técnica Streaming de Vídeo Adaptativo (Adaptive Bitrate Streaming - ABR)
se tornou o padrão de fato da indústria. ABR é uma forma conveniente de distribuir
vídeo pela Internet para muitos usuários simultaneamente. Para descrever a técnica ABR
brevemente, um streaming de vídeo é divido em segmentos que são transcodificados em
diferentes taxas de bits, assim os usuários podem se adaptar, consumindo a representação
que melhor se conforma com a sua largura de banda. Os recursos computacionais que a
transcodificação demanda não são negligenciáveis. De fato, a transcodificação de vídeo
representa custos relevantes para os provedores de vídeo ao vivo.
A bufferização empregada pelos players de vídeo compatíveis com a ABR é uma característica chave para determinar a previsibilidade das requisições de segmento de vídeo.
Experimentos indicam que a audiência de vídeos pela Internet prefere representações com
altas taxas de bits, sendo que constantes interrupções prejudicam a qualidade da experiência. Uma função de utilidade básica de uma sessão de vídeo pode ser definida como
a razão entre a taxa de bits média, contrabalançada pela suavidade da reprodução. Suavidade da reprodução é a razão entre o tempo gasto esperando o buffer de vídeo ser preenchido e o tempo total de exibição.
Em uma arquitetura baseada em nuvem, a periferia onde ficam os dispositivos dos
usuários finais é chamada de Borda (Edge) ou Neblina (Fog). Desta forma, tirar vantagem
desses recursos que estão geograficamente distribuídos é referenciado como Computação
na Neblina (Fog-Edge Computing - FEC). O ambiente da FEC é definido como um complemento da núvem que emprega dispositivos na borda da rede para melhorar a qualidade
de serviço através de um contínuo. Como um complemento da infraestrutura da Internet,
o FEC herda algumas de suas características. O FEC tem muitos recursos computacionais ociosos, que estariam, teoricamente, disponíveis para serem utilizados entregando
uma baixa latência. Usar esses dispositivos do FEC pode ser útil para a transcodificação
distribuída de vídeo ao vivo. No entanto, a colaboração com dispositivos desconhecidos
pode ser arriscada, pois não estão sob controle dos provedores ou dos usuários. Já que
alguns dos nós do FEC tem autonomia deliberativa visando melhorar seu desempenho,
nós podemos descrevê-los como agentes.
Uma sociedade composta de entidades autônomas, como um sistema multiagente,
leva a possibilidade de uma parte destas entidades serem egoístas. Em outras palavras, é
necessário saber em quem confiar. A aplicação de modelos de confiança e reputação é uma
característica chave quando queremos lidar com o risco de delegar tarefas em ambientes
abertos e semi-competitivos, tal como o FEC.
Para enfrentar a incerteza de colaborar com dispositivos no FEC, um agente racional
A, antes de delegar uma tarefa da qual seu bem-estar depende para um agente B, precisa
de alguma forma calcular a probabilidade de B completar a tarefa satisfatoriamente. Esta
probabilidade representa o quanto o agente A avalia que B é digno de confiança quanto
a tarefa em questão. De qualquer forma, um agente talvez não seja capaz de avaliar
a confiabilidade de uma contraparte se eles nunca se encontraram antes. Uma solução
recorrente para a falta de informação advinda de interação direta é perguntar a outros
sobre a opinião que eles têm de um possível parceiro. A ponderação da confiança que
uma comunidade deposita em um agente é chamada de reputação. Na literatura, há
vários modelos de interação entre agentes baseados em confiança e reputação (Trust and
Reputation Models - T&RM). Um dos aspectos que diferencia esses modelos são as fontes
de informação que eles podem utilizar como insumo. No entanto, todos eles consideram
a interação direta e/ou a opinião de testemunhas em seus cálculos.
Os algoritmos chamados de Multi-Armed Bandits (MAB) são aplicados quando um
agente precisa escolher entre alternativas incertas. Agentes não sabem a priori qual é a
distribuição de recompensas das escolhas postas à sua frente, mas têm certa confiança que
existem escolhas melhores que outras. Os algoritmos MAB possuem duas fases, a fase
de exploração e a fase de aproveitamento. Na fase de exploração são feitas escolhas para tentar estimar a distribuição de recompensas de cada uma das opções testadas. Depois
disso, o agente pode utilizar o conhecimento que adquiriu para escolher a melhor opção
dentre as que passou a conhecer na fase de aproveitamento. Ao passar para a fase de
aproveitamento, não queremos dizer que o agente sabe de forma incontestável qual é a
melhor opção, já que a distribuição de recompensas verdadeira é ainda desconhecida e
pode haver uma opção melhor dentre as que não foram escolhidas. Muitos algoritmos
implementam diferentes estratégias para balancear exploração e aproveitamento. Para
exemplificar, citamos e-Greedy, e-First, e-Decreasing e a família de algoritmos chamada
Limites de Confiança Elevados (Upper Confidence Bounds - UCB).
Foram selecionados alguns trabalhos prévios que abordaram o problema de habilitar
a transcodificação de vídeo ao vivo para dispositivos heterogêneos em ambientes distribuídos. Cada trabalho empregou um método específico, onde os autores validaram as
abordagens em cenários distintos dificultando a comparação de desempenho dos mesmos. Assim, as soluções propostas foram analisadas procurando brechas onde modelos
de confiança e reputação pudessem ser aplicados para trazer vantagens, tanto para os
provedores quanto para os usuários finais. Destaca-se que os trabalhos pesquisados na
literatura falham ao abordar ambientes abertos. No entanto, o problema da colaboração
com agentes potencialmente maliciosos é proeminente quando se pretende empregar os
dispositivos do usuário final. Seria interessante que as tarefas de transcodificação fossem
designadas aos nós de forma dinâmica de acordo com o desempenho observado a cada
turno de execução. Neste caso, o uso de uma métrica de confiança e reputação que represente uma avaliação geral da contribuição para a utilidade dos visualizadores, não apenas
incluindo a estabilidade do nó, mas a competência em desempenhar a tarefa designada
seria útil. Assim, uma proposta mais adequada ao problema poderia abordar três frentes:
definir uma arquitetura baseada em agentes autônomos, capacitar a arquitetura a selecionar os nós apropriados para fazer a transcodificação em ambiente aberto e, ainda, avaliar
a credibilidade de testemunhas evitando a influência de agentes não-confiáveis.
Como solução para o problema descrito, foram analisados os requisitos do sistema
multiagente com a metodologia Tropos. Tropos é uma metodologia de desenvolvimento de
software para programação orientada a agentes. Essa metodologia permite a representação
de estados mentais como metas e qualidades. O aspecto que mais diferencia a metodologia
Tropos de outras metodologias de desenvolvimento de software é a natureza centrada
em agentes. A metodologia Tropos guia o desenvolvimento de soluções orientadas a
agentes através de um conjunto de fases, pelas quais o desenvolvedor gradativamente vai
refinando a representação do sistema. Da análise com a metodologia Tropos surgiu a
proposta de uma arquitetura para transcodificação distribuída composto de agentes que
desempenham três papéis: o Corretor (Broker), o Proxy do visualizador (Viewer’s proxy) e o Transcodificador (Transcoder). O Proxy do visualizador é o papel para os agentes que
representam a audiência do stream de vídeo ao vivo. Esse papel é destinado aos agentes
que requerem ao Corretor a adaptação do stream em ABR e interage com ele para avaliar
o desempenho dos transcodificadores. O Transcodificador é o papel a ser desempenhado
pelos agentes interessados em receber tarefas de transcodificação e serem recompensados
por elas. A responsabilidade dos corretores é gerenciar a associação entre os proxies dos
visualizadores e os transcodificadores para o benefício de ambos.
Pensando sobre o trabalho que os corretores desempenham no modelo proposto, em
certo ponto eles irão formar um conjunto de transcodificadores dentre os quais alguns
são bem conhecidos, enquanto outros não terão sido testados. Então, corretores devem
balancear suas estratégias entre aproveitar os mais bem conhecidos ou explorar os desconhecidos para aprender sobre o desempenho deles. Aprender sobre os transcodificadores
disponíveis, nós queremos dizer que os corretores devem formar uma crença sobre o quão
bom transcodificador é um nó específico, com a ajuda da avaliação de um determinado
grupo de visualizadores. Esta crença externa (relação não reflexiva) é uma medida da
reputação do transcodificador na comunicade de visualizadores. Para o corretor, a reputação de uma transcodificador é representado por um par de valores: a confiabilidade do
transcodificador e uma medida da confiança que se tem no primeiro valor, a credibilidade
da confiança.
Para que o corretor tenha a capacidade de selecionar os nós de acordo com as regras
estabelecidas foi introduzido o algoritmo ReNoS - Reputation Node Selection. O algoritmo foi projetado para balancear exploração e aproveitamento de forma que o nó mais
confiável não seja sobrecarregado. Quando um novo transcodificador é registrado, recebe
uma avaliação de confiança acima do limiar de cooperação e um pouco abaixo da maior
avaliação possível, assim aumentando as chances de ser selecionado na próxima iteração.
Um problema detectado com o uso do ReNoS é que ele requer que o valor de confiança
inicial seja alto. Isto significa que, para usar o algoritmo, o agente que usa a confiança
deve acreditar que um nó novo e desconhecido é tão bom quanto um muito conhecido e
bem avaliado. De outra forma, a exploração não irá funcionar adequadamente. Esta política é semelhante a utilizada no algoritmo UCB1, onde as opções menos selecionadas até
o momento são aquelas com as maiores chances de serem selecionadas no próximo turno.
Para contornar esse problema, foi elaborada uma nova versão do algoritmo denominado
ReNoS-II. O ReNoS-II é baseado na ideia do algoritmo conhecido como Thompson Sampling. Quando um novo transcodificador se registra recebe um valor de reputação com
baixa confiança e credibilidade. Desta forma, a expectativa para a curva de desempenho
é achatada e larga, semelhante a uma distribuição uniforme. Mas a medida que o transcodificador é testado e mais conhecimento se acumula sobre ele a credibilidade cresce e a curva se estreita em torno do valor da confiança.
Para validação da arquitetura proposta foi realizado um experimento com o objetivo
de verificar se a abordagem trata adequadamente o problema da transcodificação distribuída com nós do FEC. Foi utilizado um protótipo implementado seguindo estritamente
as diretrizes da arquitetura, capaz de desempenhar as tarefas necessárias para distribuir a
transcodificação em tempo real. Validar o modelo proposto que combina MAB e T&RM
para selecionar nós no FEC envolve identificar as condições nas quais as características do
ambiente FEC poderiam prejudicar as garantias dos algoritmos MAB. Uma dessas condições é quando os agentes não são verdadeiros em seus relatórios. Já que transcodificadores
estão interessados em receber o maior número de tarefas de transcodificação possível, os
nós não-confiáveis podem formar uma coalisão com visualizadores para tentar manipular
as escolhas do corretor. Desta forma, o experimento inclui dois cenários distintos. No Cenário 01, o objetivo é obter uma linha base de comparação onde os agentes envolvidos não
recusam interações sendo sempre verdadeiros nas trocas de informação. No cenário 02, o
objetivo é observar o que acontece quando um transcodificador tenta manipular a transcodificação distribuída com ataques de relatórios falsos. Nesse experimento, a métrica
utilizada para comparação foi o valor da recompensa acumulada pelo corretor ao longo
de uma sessão de transcodificação. O experimento revelou que quando o algoritmo UCB1
foi empregado houve um decréscimo significativo do Cenário 01 para o Cenário 02. No
entanto, não foi observado o mesmo decréscimo quando os algoritmos empregados foram
ReNoS e ReNoS-II associados ao modelo FIRE. UCB1 e ReNoS produziram resultados
semelhantes em termos de recompensa acumulada. Por outro lado, os resultados obtidos
com o algoritmo ReNoS-II foram significativamente maiores do que os obtidos com UCB1
e ReNoS nos dois cenários, apesar da variância ter sido maior.
Pelos resultados dos experimentos realizados, conclui-se que o modelo proposto combinando MAB e T&RM para selecionar nós no FEC é promissor para aplicação no mundo
real. Os resultados experimentais do algoritmo ReNoS se apresenta tão performativo
quanto UCB1. O algoritmo ReNoS-II apresenta um desempenho melhor que o ReNos e
UCB1 nos dois cenários testados. Enfim, os experimentos mostraram que ponderando e
filtrando informação dos relatórios baseando-se na credibilidade das testemunhas é possível proteger o sistema de transcodificação distribuída no FEC de agentes não-confiáveis,
evitando danos causados pela formação de coalisões.Adaptive Bitrate Streaming (ABR) is a popular technique for providing video media over the Internet. In ABR, the streaming provider splits the video stream into small segments then transcodes them in many different bitrates. So, players can adapt to unstable network parameters minimizing interruptions on playback. However, the computational cost of transcoding a video in many formats can limit its application on live video streaming. Besides, the network overhead of transmitting simultaneously many versionsof the same content is a problem. Offloading the transcoding burden to the edge of the network, near the end-users, should alleviate the data traffic burden on the backbone while diluting the computational cost. Users and providers of live video could benefit from a joint scheme that allowed end-user devices to do the transcoding with tolerable latency and delay. We applied Tropos, the agent-oriented software development methodology, to analyze the described scenario and design a multi-agent architecture to deal with the problem of distributed transcoding on Fog-Edge Computing (FEC). The presented architecture consists of three well-defined roles. The transcoder role is intended for those agents on FEC interested in receiving transcoding tasks. The viewer proxy role should be performed by those software agents who will act for the sake of the viewers. The broker role is performed by the agents who will coordinate the tasks for the benefit of the other two. Since FEC is an open environment, distributing transcoding tasks over unknown partners is risky. One of the threats is the risk of untrustworthy partners trying to manipulate the broker by sending it fake information. Literature refers to this kind of manipulation as fake feedback attacks. In this master thesis, we propose combing reward evaluation functions that account for Quality of Service (QoS) with Trust and Reputation Models (TRM) and Multi-armed bandits algorithms (MAB). We present two algorithms, Reputation-based Node Selection (ReNoS) and ReNoS-II, designed to online select the best edge nodes to perform the transcoding tasks. We experimented with ReNoS, ReNoS-II, and the other three selecting algorithms in two scenarios to compare them regarding accumulated reward, exploration of available partners, and vulnerability to fake feedback attacks. The outcomes indicate that our proposal can afford rewards gain keeping good QoS as perceived by viewers, besides offering protection against fake feedback attacks delivered by untrustworthy transcoders and viewers. Our main contribution is a multi-agent architecture that combines the robustness of TRM and stochastic MAB algorithms to mitigate the risk of fake feedback attacks, which enabled the employment of unknown partners in open environments. This achievement is in the interest of distributed transcoding applications since it mitigates the risk of employing end-user devices
Enhancing trustability in MMOGs environments
Massively Multiplayer Online Games (MMOGs; e.g., World of Warcraft), virtual worlds
(VW; e.g., Second Life), social networks (e.g., Facebook) strongly demand for more
autonomic, security, and trust mechanisms in a way similar to humans do in the real
life world. As known, this is a difficult matter because trusting in humans and organizations
depends on the perception and experience of each individual, which is difficult to
quantify or measure. In fact, these societal environments lack trust mechanisms similar
to those involved in humans-to-human interactions. Besides, interactions mediated
by compute devices are constantly evolving, requiring trust mechanisms that keep the
pace with the developments and assess risk situations.
In VW/MMOGs, it is widely recognized that users develop trust relationships from their
in-world interactions with others. However, these trust relationships end up not being
represented in the data structures (or databases) of such virtual worlds, though they
sometimes appear associated to reputation and recommendation systems. In addition,
as far as we know, the user is not provided with a personal trust tool to sustain his/her
decision making while he/she interacts with other users in the virtual or game world.
In order to solve this problem, as well as those mentioned above, we propose herein a
formal representation of these personal trust relationships, which are based on avataravatar
interactions. The leading idea is to provide each avatar-impersonated player
with a personal trust tool that follows a distributed trust model, i.e., the trust data is
distributed over the societal network of a given VW/MMOG.
Representing, manipulating, and inferring trust from the user/player point of view certainly
is a grand challenge. When someone meets an unknown individual, the question
is “Can I trust him/her or not?”. It is clear that this requires the user to have access to
a representation of trust about others, but, unless we are using an open source VW/MMOG,
it is difficult —not to say unfeasible— to get access to such data. Even, in an open
source system, a number of users may refuse to pass information about its friends, acquaintances,
or others. Putting together its own data and gathered data obtained from
others, the avatar-impersonated player should be able to come across a trust result
about its current trustee. For the trust assessment method used in this thesis, we use
subjective logic operators and graph search algorithms to undertake such trust inference
about the trustee. The proposed trust inference system has been validated using
a number of OpenSimulator (opensimulator.org) scenarios, which showed an accuracy
increase in evaluating trustability of avatars.
Summing up, our proposal aims thus to introduce a trust theory for virtual worlds, its
trust assessment metrics (e.g., subjective logic) and trust discovery methods (e.g.,
graph search methods), on an individual basis, rather than based on usual centralized
reputation systems. In particular, and unlike other trust discovery methods, our methods
run at interactive rates.MMOGs (Massively Multiplayer Online Games, como por exemplo, World of Warcraft),
mundos virtuais (VW, como por exemplo, o Second Life) e redes sociais (como por exemplo,
Facebook) necessitam de mecanismos de confiança mais autónomos, capazes de
assegurar a segurança e a confiança de uma forma semelhante à que os seres humanos
utilizam na vida real. Como se sabe, esta não é uma questão fácil. Porque confiar em
seres humanos e ou organizações depende da percepção e da experiência de cada indivíduo,
o que é difícil de quantificar ou medir à partida. Na verdade, esses ambientes
sociais carecem dos mecanismos de confiança presentes em interacções humanas presenciais.
Além disso, as interacções mediadas por dispositivos computacionais estão em
constante evolução, necessitando de mecanismos de confiança adequados ao ritmo da
evolução para avaliar situações de risco.
Em VW/MMOGs, é amplamente reconhecido que os utilizadores desenvolvem relações
de confiança a partir das suas interacções no mundo com outros. No entanto, essas relações
de confiança acabam por não ser representadas nas estruturas de dados (ou bases
de dados) do VW/MMOG específico, embora às vezes apareçam associados à reputação
e a sistemas de reputação. Além disso, tanto quanto sabemos, ao utilizador não lhe
é facultado nenhum mecanismo que suporte uma ferramenta de confiança individual
para sustentar o seu processo de tomada de decisão, enquanto ele interage com outros
utilizadores no mundo virtual ou jogo. A fim de resolver este problema, bem como
os mencionados acima, propomos nesta tese uma representação formal para essas relações
de confiança pessoal, baseada em interacções avatar-avatar. A ideia principal
é fornecer a cada jogador representado por um avatar uma ferramenta de confiança
pessoal que segue um modelo de confiança distribuída, ou seja, os dados de confiança
são distribuídos através da rede social de um determinado VW/MMOG.
Representar, manipular e inferir a confiança do ponto de utilizador/jogador, é certamente
um grande desafio. Quando alguém encontra um indivíduo desconhecido, a
pergunta é “Posso confiar ou não nele?”. É claro que isto requer que o utilizador tenha
acesso a uma representação de confiança sobre os outros, mas, a menos que possamos
usar uma plataforma VW/MMOG de código aberto, é difícil — para não dizer impossível
— obter acesso aos dados gerados pelos utilizadores. Mesmo em sistemas de código
aberto, um número de utilizadores pode recusar partilhar informações sobre seus amigos,
conhecidos, ou sobre outros. Ao juntar seus próprios dados com os dados obtidos de
outros, o utilizador/jogador representado por um avatar deve ser capaz de produzir uma
avaliação de confiança sobre o utilizador/jogador com o qual se encontra a interagir.
Relativamente ao método de avaliação de confiança empregue nesta tese, utilizamos
lógica subjectiva para a representação da confiança, e também operadores lógicos da
lógica subjectiva juntamente com algoritmos de procura em grafos para empreender
o processo de inferência da confiança relativamente a outro utilizador. O sistema de
inferência de confiança proposto foi validado através de um número de cenários Open-Simulator (opensimulator.org), que mostrou um aumento na precisão na avaliação da
confiança de avatares.
Resumindo, a nossa proposta visa, assim, introduzir uma teoria de confiança para mundos
virtuais, conjuntamente com métricas de avaliação de confiança (por exemplo, a
lógica subjectiva) e em métodos de procura de caminhos de confiança (com por exemplo,
através de métodos de pesquisa em grafos), partindo de uma base individual, em
vez de se basear em sistemas habituais de reputação centralizados. Em particular, e ao
contrário de outros métodos de determinação do grau de confiança, os nossos métodos
são executados em tempo real
Data trust framework using blockchain and smart contracts
Lack of trust is the main barrier preventing more widespread data sharing. The lack of transparent and reliable infrastructure for data sharing prevents many data owners from sharing their data.
Data trust is a paradigm that facilitates data sharing by forcing data controllers to be transparent about the process of sharing and reusing data.
Blockchain technology has the potential to present the essential properties for creating a practical and secure data trust framework by transforming current auditing practices and automatic enforcement of smart contracts logic without relying on intermediaries to establish trust.
Blockchain holds an enormous potential to remove the barriers of traditional centralized applications and propose a distributed and transparent administration by employing the involved parties to maintain consensus on the ledger. Furthermore, smart contracts are a programmable component that provides blockchain with more flexible and powerful capabilities. Recent advances in blockchain platforms toward smart contracts' development have revealed the possibility of implementing blockchain-based applications in various domains, such as health care, supply chain and digital identity.
This dissertation investigates the blockchain's potential to present a framework for data trust. It starts with a comprehensive study of smart contracts as the main component of blockchain for developing decentralized data trust.
Interrelated, three decentralized applications that address data sharing and access control problems in various fields, including healthcare data sharing, business process, and physical access control system, have been developed and examined.
In addition, a general-purpose application based on an attribute-based access control model is proposed that can provide trusted auditability required for data sharing and access control systems and, ultimately, a data trust framework. Besides auditing, the system presents a transparency level that both access requesters (data users) and resource owners (data controllers) can benefit from. The proposed solutions have been validated through a use case of independent digital libraries. It also provides a detailed performance analysis of the system implementation.
The performance results have been compared based on different consensus mechanisms and databases, indicating the system's high throughput and low latency.
Finally, this dissertation presents an end-to-end data trust framework based on blockchain technology.
The proposed framework promotes data trustworthiness by assessing input datasets, effectively managing access control, and presenting data provenance and activity monitoring. A trust assessment model that examines the trustworthiness of input data sets and calculates the trust value is presented.
The number of transaction validators is defined adaptively with the trust value.
This research provides solutions for both data owners and data users’ by ensuring the trustworthiness and quality of the data at origin and transparent and secure usage of the data at the end. A comprehensive experimental study indicates the presented system effectively handles a large number of transactions with low latency
A Multi Agent System for Flow-Based Intrusion Detection
The detection and elimination of threats to cyber security is essential for system functionality, protection of valuable information, and preventing costly destruction of assets. This thesis presents a Mobile Multi-Agent Flow-Based IDS called MFIREv3 that provides network anomaly detection of intrusions and automated defense. This version of the MFIRE system includes the development and testing of a Multi-Objective Evolutionary Algorithm (MOEA) for feature selection that provides agents with the optimal set of features for classifying the state of the network. Feature selection provides separable data points for the selected attacks: Worm, Distributed Denial of Service, Man-in-the-Middle, Scan, and Trojan. This investigation develops three techniques of self-organization for multiple distributed agents in an intrusion detection system: Reputation, Stochastic, and Maximum Cover. These three movement models are tested for effectiveness in locating good agent vantage points within the network to classify the state of the network. MFIREv3 also introduces the design of defensive measures to limit the effects of network attacks. Defensive measures included in this research are rate-limiting and elimination of infected nodes. The results of this research provide an optimistic outlook for flow-based multi-agent systems for cyber security. The impact of this research illustrates how feature selection in cooperation with movement models for multi agent systems provides excellent attack detection and classification
Recommended from our members
Trust Management for P2P application in Delay Tolerant Mobile Ad-hoc Networks. An Investigation into the development of a Trust Management Framework for Peer to Peer File Sharing Applications in Delay Tolerant Disconnected Mobile Ad-hoc Networks.
Security is essential to communication between entities in the internet. Delay tolerant and disconnected Mobile Ad Hoc Networks (MANET) are a class of networks characterized by high end-to-end path latency and frequent end-to-end disconnections and are often termed as challenged networks. In these networks nodes are sparsely populated and without the existence of a central server, acquiring global information is difficult and impractical if not impossible and therefore traditional security schemes proposed for MANETs cannot be applied. This thesis reports trust management schemes for peer to peer (P2P) application in delay tolerant disconnected MANETs. Properties of a profile based file sharing application are analyzed and a framework for structured P2P overlay over delay tolerant disconnected MANETs is proposed. The framework is implemented and tested on J2ME based smart phones using Bluetooth communication protocol. A light weight Content Driven Data Propagation Protocol (CDDPP) for content based data delivery in MANETs is presented. The CDDPP implements a user profile based content driven P2P file sharing application in disconnected MANETs. The CDDPP protocol is further enhanced by proposing an adaptive opportunistic multihop content based routing protocol (ORP). ORP protocol considers the store-carry-forward paradigm for multi-hop packet delivery in delay tolerant MANETs and allows multi-casting to selected number of nodes. Performance of ORP is compared with a similar autonomous gossiping (A/G) protocol using simulations. This work also presents a framework for trust management based on dynamicity aware graph re-labelling system (DA-GRS) for trust management in mobile P2P applications. The DA-GRS uses a distributed algorithm to identify trustworthy nodes and generate trustable groups while isolating misleading or untrustworthy nodes. Several simulations in various environment settings show the effectiveness of the proposed framework in creating trust based communities. This work also extends the FIRE distributed trust model for MANET applications by incorporating witness based interactions for acquiring trust ratings. A witness graph building mechanism in FIRE+ is provided with several trust building policies to identify malicious nodes and detect collusive behaviour in nodes. This technique not only allows trust computation based on witness trust ratings but also provides protection against a collusion attack. Finally, M-trust, a light weight trust management scheme based on FIRE+ trust model is presented
- …