3 research outputs found

    Ɖvaluation de la confiance dans la collaboration Ć  large Ć©chelle

    Get PDF
    Large-scale collaborative systems wherein a large number of users collaborate to perform a shared task attract a lot of attention from both academic and industry. Trust is an important factor for the success of a large-scale collaboration. It is difficult for end-users to manually assess the trust level of each partner in this collaboration. We study the trust assessment problem and aim to design a computational trust model for collaborative systems. We focused on three research questions. 1. What is the effect of deploying a trust model and showing trust scores of partners to users? We designed and organized a user-experiment based on trust game, a well-known money-exchange lab-control protocol, wherein we introduced user trust scores. Our comprehensive analysis on user behavior proved that: (i) showing trust score to users encourages collaboration between them significantly at a similar level with showing nick- name, and (ii) users follow the trust score in decision-making. The results suggest that a trust model can be deployed in collaborative systems to assist users. 2. How to calculate trust score between users that experienced a collaboration? We designed a trust model for repeated trust game that computes user trust scores based on their past behavior. We validated our trust model against: (i) simulated data, (ii) human opinion, and (iii) real-world experimental data. We extended our trust model to Wikipedia based on user contributions to the quality of the edited Wikipedia articles. We proposed three machine learning approaches to assess the quality of Wikipedia articles: the first one based on random forest with manually-designed features while the other two ones based on deep learning methods. 3. How to predict trust relation between users that did not interact in the past? Given a network in which the links represent the trust/distrust relations between users, we aim to predict future relations. We proposed an algorithm that takes into account the established time information of the links in the network to predict future user trust/distrust relationships. Our algorithm outperforms state-of-the-art approaches on real-world signed directed social network datasetsLes systeĢ€mes collaboratifs aĢ€ large eĢchelle, ouĢ€ un grand nombre dā€™utilisateurs collaborent pour reĢaliser une taĢ‚che partageĢe, attirent beaucoup lā€™attention des milieux industriels et acadeĢmiques. Bien que la confiance soit un facteur primordial pour le succeĢ€s dā€™une telle collaboration, il est difficile pour les utilisateurs finaux dā€™eĢvaluer manuellement le niveau de confiance envers chaque partenaire. Dans cette theĢ€se, nous eĢtudions le probleĢ€me de lā€™eĢvaluation de la confiance et cherchons aĢ€ concevoir un modeĢ€le de confiance informatique deĢdieĢs aux systeĢ€mes collaboratifs. Nos travaux sā€™organisent autour des trois questions de recherche suivantes. 1. Quel est lā€™effet du deĢploiement dā€™un modeĢ€le de confiance et de la repreĢsentation aux utilisateurs des scores obtenus pour chaque partenaire ? Nous avons concĢ§u et organiseĢ une expeĢrience utilisateur baseĢe sur le jeu de confiance qui est un protocole dā€™eĢchange dā€™argent en environnement controĢ‚leĢ dans lequel nous avons introduit des notes de confiance pour les utilisateurs. Lā€™analyse deĢtailleĢe du comportement des utilisateurs montre que: (i) la preĢsentation dā€™un score de confiance aux utilisateurs encourage la collaboration entre eux de manieĢ€re significative, et ce, aĢ€ un niveau similaire aĢ€ celui de lā€™affichage du surnom des participants, et (ii) les utilisateurs se conforment au score de confiance dans leur prise de deĢcision concernant lā€™eĢchange moneĢtaire. Les reĢsultats suggeĢ€rent donc quā€™un modeĢ€le de confiance peut eĢ‚tre deĢployeĢ dans les systeĢ€mes collaboratifs afin dā€™assister les utilisateurs. 2. Comment calculer le score de confiance entre des utilisateurs qui ont deĢjaĢ€ collaboreĢ ? Nous avons concĢ§u un modeĢ€le de confiance pour les jeux de confiance reĢpeĢteĢs qui calcule les scores de confiance des utilisateurs en fonction de leur comportement passeĢ. Nous avons valideĢ notre modeĢ€le de confiance en relativement aĢ€: (i) des donneĢes simuleĢes, (ii) de lā€™opinion humaine et (iii) des donneĢes expeĢrimentales reĢelles. Nous avons appliqueĢ notre modeĢ€le de confiance aĢ€ WikipeĢdia en utilisant la qualiteĢ des articles de WikipeĢdia comme mesure de contribution. Nous avons proposeĢ trois algorithmes dā€™apprentissage automatique pour eĢvaluer la qualiteĢ des articles de WikipeĢdia: lā€™un est baseĢ sur une foreĢ‚t dā€™arbres deĢcisionnels tandis que les deux autres sont baseĢs sur des meĢthodes dā€™apprentissage profond. 3. Comment preĢdire la relation de confiance entre des utilisateurs qui nā€™ont pas encore interagi ? Etant donneĢ un reĢseau dans lequel les liens repreĢsentent les relations de confiance/deĢfiance entre utilisateurs, nous cherchons aĢ€ preĢvoir les relations futures. Nous avons proposeĢ un algorithme qui prend en compte les informations temporelles relatives aĢ€ lā€™eĢtablissement des liens dans le reĢseau pour preĢdire la relation future de confiance/deĢfiance des utilisateurs. Lā€™algorithme proposeĢ surpasse les approches de la litteĢrature pour des jeux de donneĢes reĢels provenant de reĢseaux sociaux dirigeĢs et signeĢ

    Review of threats on trust and reputation models

    No full text
    corecore