3 research outputs found
Ćvaluation de la confiance dans la collaboration Ć large Ć©chelle
Large-scale collaborative systems wherein a large number of users collaborate to perform a shared task attract a lot of attention from both academic and industry. Trust is an important factor for the success of a large-scale collaboration. It is difficult for end-users to manually assess the trust level of each partner in this collaboration. We study the trust assessment problem and aim to design a computational trust model for collaborative systems. We focused on three research questions. 1. What is the effect of deploying a trust model and showing trust scores of partners to users? We designed and organized a user-experiment based on trust game, a well-known money-exchange lab-control protocol, wherein we introduced user trust scores. Our comprehensive analysis on user behavior proved that: (i) showing trust score to users encourages collaboration between them significantly at a similar level with showing nick- name, and (ii) users follow the trust score in decision-making. The results suggest that a trust model can be deployed in collaborative systems to assist users. 2. How to calculate trust score between users that experienced a collaboration? We designed a trust model for repeated trust game that computes user trust scores based on their past behavior. We validated our trust model against: (i) simulated data, (ii) human opinion, and (iii) real-world experimental data. We extended our trust model to Wikipedia based on user contributions to the quality of the edited Wikipedia articles. We proposed three machine learning approaches to assess the quality of Wikipedia articles: the first one based on random forest with manually-designed features while the other two ones based on deep learning methods. 3. How to predict trust relation between users that did not interact in the past? Given a network in which the links represent the trust/distrust relations between users, we aim to predict future relations. We proposed an algorithm that takes into account the established time information of the links in the network to predict future user trust/distrust relationships. Our algorithm outperforms state-of-the-art approaches on real-world signed directed social network datasetsLes systeĢmes collaboratifs aĢ large eĢchelle, ouĢ un grand nombre dāutilisateurs collaborent pour reĢaliser une taĢche partageĢe, attirent beaucoup lāattention des milieux industriels et acadeĢmiques. Bien que la confiance soit un facteur primordial pour le succeĢs dāune telle collaboration, il est difficile pour les utilisateurs finaux dāeĢvaluer manuellement le niveau de confiance envers chaque partenaire. Dans cette theĢse, nous eĢtudions le probleĢme de lāeĢvaluation de la confiance et cherchons aĢ concevoir un modeĢle de confiance informatique deĢdieĢs aux systeĢmes collaboratifs. Nos travaux sāorganisent autour des trois questions de recherche suivantes. 1. Quel est lāeffet du deĢploiement dāun modeĢle de confiance et de la repreĢsentation aux utilisateurs des scores obtenus pour chaque partenaire ? Nous avons concĢ§u et organiseĢ une expeĢrience utilisateur baseĢe sur le jeu de confiance qui est un protocole dāeĢchange dāargent en environnement controĢleĢ dans lequel nous avons introduit des notes de confiance pour les utilisateurs. Lāanalyse deĢtailleĢe du comportement des utilisateurs montre que: (i) la preĢsentation dāun score de confiance aux utilisateurs encourage la collaboration entre eux de manieĢre significative, et ce, aĢ un niveau similaire aĢ celui de lāaffichage du surnom des participants, et (ii) les utilisateurs se conforment au score de confiance dans leur prise de deĢcision concernant lāeĢchange moneĢtaire. Les reĢsultats suggeĢrent donc quāun modeĢle de confiance peut eĢtre deĢployeĢ dans les systeĢmes collaboratifs afin dāassister les utilisateurs. 2. Comment calculer le score de confiance entre des utilisateurs qui ont deĢjaĢ collaboreĢ ? Nous avons concĢ§u un modeĢle de confiance pour les jeux de confiance reĢpeĢteĢs qui calcule les scores de confiance des utilisateurs en fonction de leur comportement passeĢ. Nous avons valideĢ notre modeĢle de confiance en relativement aĢ: (i) des donneĢes simuleĢes, (ii) de lāopinion humaine et (iii) des donneĢes expeĢrimentales reĢelles. Nous avons appliqueĢ notre modeĢle de confiance aĢ WikipeĢdia en utilisant la qualiteĢ des articles de WikipeĢdia comme mesure de contribution. Nous avons proposeĢ trois algorithmes dāapprentissage automatique pour eĢvaluer la qualiteĢ des articles de WikipeĢdia: lāun est baseĢ sur une foreĢt dāarbres deĢcisionnels tandis que les deux autres sont baseĢs sur des meĢthodes dāapprentissage profond. 3. Comment preĢdire la relation de confiance entre des utilisateurs qui nāont pas encore interagi ? Etant donneĢ un reĢseau dans lequel les liens repreĢsentent les relations de confiance/deĢfiance entre utilisateurs, nous cherchons aĢ preĢvoir les relations futures. Nous avons proposeĢ un algorithme qui prend en compte les informations temporelles relatives aĢ lāeĢtablissement des liens dans le reĢseau pour preĢdire la relation future de confiance/deĢfiance des utilisateurs. Lāalgorithme proposeĢ surpasse les approches de la litteĢrature pour des jeux de donneĢes reĢels provenant de reĢseaux sociaux dirigeĢs et signeĢ