85 research outputs found

    Papyres : un système de gestion et de recommandation d’articles de recherche

    Get PDF
    Les étudiants gradués et les professeurs (les chercheurs, en général), accèdent, passent en revue et utilisent régulièrement un grand nombre d’articles, cependant aucun des outils et solutions existants ne fournit la vaste gamme de fonctionnalités exigées pour gérer correctement ces ressources. En effet, les systèmes de gestion de bibliographie gèrent les références et les citations, mais ne parviennent pas à aider les chercheurs à manipuler et à localiser des ressources. D'autre part, les systèmes de recommandation d’articles de recherche et les moteurs de recherche spécialisés aident les chercheurs à localiser de nouvelles ressources, mais là encore échouent dans l’aide à les gérer. Finalement, les systèmes de gestion de contenu d'entreprise offrent les fonctionnalités de gestion de documents et des connaissances, mais ne sont pas conçus pour les articles de recherche. Dans ce mémoire, nous présentons une nouvelle classe de systèmes de gestion : système de gestion et de recommandation d’articles de recherche. Papyres (Naak, Hage, & Aïmeur, 2008, 2009) est un prototype qui l’illustre. Il combine des fonctionnalités de bibliographie avec des techniques de recommandation d’articles et des outils de gestion de contenu, afin de fournir un ensemble de fonctionnalités pour localiser les articles de recherche, manipuler et maintenir les bibliographies. De plus, il permet de gérer et partager les connaissances relatives à la littérature. La technique de recommandation utilisée dans Papyres est originale. Sa particularité réside dans l'aspect multicritère introduit dans le processus de filtrage collaboratif, permettant ainsi aux chercheurs d'indiquer leur intérêt pour des parties spécifiques des articles. De plus, nous proposons de tester et de comparer plusieurs approches afin de déterminer le voisinage dans le processus de Filtrage Collaboratif Multicritère, de telle sorte à accroître la précision de la recommandation. Enfin, nous ferons un rapport global sur la mise en œuvre et la validation de Papyres.Graduate students and professors (researchers, in general) regularly access, review, and use large amounts of research papers, yet none of the existing tools and solutions provides the wide range of functionalities required to properly manage these resources. Indeed, bibliography management systems manage the references and citations but fail to help researchers in handling and locating resources. On the other hand, research paper recommendation systems and specialized search engines help researchers to locate new resources, but again fail to help researchers in managing the resources. Finally, Enterprise Content Management systems offer the required functionalities to manage resources and knowledge, but are not designed for research literature. Consequently, we suggest a new class of management systems: Research Paper Management and Recommendation System. Through our system Papyres (Naak, Hage, & Aïmeur, 2008, 2009) we illustrate our approach, which combines bibliography functionalities along with recommendation techniques and content management tools, in order to provide a set of functionalities to locate research papers, handle and maintain the bibliographies, and to manage and share knowledge related to the research literature. Additionally, we propose a novel research paper recommendation technique, used within Papyres. Its uniqueness lies in the multicriteria aspect introduced in the process of collaborative filtering, allowing researchers to indicate their interest in specific parts of articles. Moreover, we suggest test and compare several approaches to determine the neighbourhood in the Multicriteria Collaborative Filtering process, such as to increase the accuracy of the recommendation. Finally, we report on the implementation and validation of Papyres

    Mures : Un système de recommandation de musique

    Full text link
    Pendant la dernière décennie nous avons vu une transformation incroyable du monde de la musique qui est passé des cassettes et disques compacts à la musique numérique en ligne. Avec l'explosion de la musique numérique, nous avons besoin de systèmes de recommandation de musique pour choisir les chansons susceptibles d’être appréciés à partir de ces énormes bases de données en ligne ou personnelles. Actuellement, la plupart des systèmes de recommandation de musique utilisent l’algorithme de filtrage collaboratif ou celui du filtrage à base de contenu. Dans ce mémoire, nous proposons un algorithme hybride et original qui combine le filtrage collaboratif avec le filtrage basé sur étiquetage, amélioré par la technique de filtrage basée sur le contexte d’utilisation afin de produire de meilleures recommandations. Notre approche suppose que les préférences de l'utilisateur changent selon le contexte d'utilisation. Par exemple, un utilisateur écoute un genre de musique en conduisant vers son travail, un autre type en voyageant avec la famille en vacances, un autre pendant une soirée romantique ou aux fêtes. De plus, si la sélection a été générée pour plus d'un utilisateur (voyage en famille, fête) le système proposera des chansons en fonction des préférences de tous ces utilisateurs. L'objectif principal de notre système est de recommander à l'utilisateur de la musique à partir de sa collection personnelle ou à partir de la collection du système, les nouveautés et les prochains concerts. Un autre objectif de notre système sera de collecter des données provenant de sources extérieures, en s'appuyant sur des techniques de crawling et sur les flux RSS pour offrir des informations reliées à la musique tels que: les nouveautés, les prochains concerts, les paroles et les artistes similaires. Nous essayerons d’unifier des ensembles de données disponibles gratuitement sur le Web tels que les habitudes d’écoute de Last.fm, la base de données de la musique de MusicBrainz et les étiquettes des MusicStrands afin d'obtenir des identificateurs uniques pour les chansons, les albums et les artistes.In the last decade we have seen an incredible transformation of the world of music, from cassette tapes and compact discs to online digital music. With the explosion of the digital music we need music recommender systems to select those probably preferred songs from these huge online or personal databases. Currently, most music recommender systems use either collaborative (social) filtering or content-based algorithms. In this work we propose an original hybrid collaborative and tag-based algorithm improved by the context-of-use filtering technique in order to generate better playlists. Our approach assumes that user preferences change depending on the context of use. For example, a user listen one kind of music while driving to work, another type while traveling with the family on vacation, another one in a romantic evening or at parties. Additionally, if the playlist was generated for more than one user (family trip, party) the system will propose songs depending on the preferences of all these users. The main goal of our system is to recommend music to the user from the personal music collection or new music from system music collection, new releases and incoming concerts. Another goal of our system it will be to gather data from external sources based on crawling techniques and RSS Feeds to provide music related content like: new releases, incoming concerts, lyrics, similar artists. We’ll try to interlink some free available datasets on the web like listening habits from Last.fm, music database from MusicBrainz and tags from MusicStrands in order to obtain unique identifiers for songs, albums and artists

    Amélioration de l'expérience d'apprentissage dans un système hypermédia adaptatif éducatif grâce aux données extraites et inférées à partir des réseaux sociaux

    Get PDF
    Avec l'émergence des formations en ligne accessibles pour tous, la personnalisation de l'apprentissage devient de plus en plus cruciale et présente de nouveaux défis aux chercheurs du domaine. Il est actuellement nécessaire de tenir compte de l'hétérogénéité du public cible et lui présenter des contenus éducatifs adaptés à ses besoins et sa façon d'apprendre afin de lui permettre de profiter au maximum de ces formations et éviter le décrochage. Ce travail de recherche s'inscrit dans le cadre des travaux sur la personnalisation de l'apprentissage à travers les systèmes hypermédias adaptatifs utilisés en éducation (SHAE). Ces systèmes ont la vocation de personnaliser le processus d'apprentissage selon des critères bien spécifiques, tels que les pré-requis ou plus souvent les styles d'apprentissage, en générant un chemin d'apprentissage adéquat. Les SHAE se basent généralement sur trois modèles principaux à savoir le modèle apprenant, le modèle du domaine et le modèle d'adaptation. Bien que la personnalisation du processus d'apprentissage offerte par les SHAE actuels soit avantageuse pour les apprenants, elle présente encore certaines limites. D'un côté, juste le fait de personnaliser l'apprentissage augmente les chances que le contenu présenté à l'apprenant lui soit utile et sera ainsi mieux compris. Mais d'un autre côté, la personnalisation dans les SHAE existants se contente des critères niveau de connaissances et style d'apprentissage, et elle s'applique seulement à certains aspects qui n'ont pas évolué depuis leur création, à savoir le contenu, la présentation et la navigation. Ceci remet en question la pertinence des objets d'apprentissage attribués aux apprenants et la motivation de ces derniers à faire usage des SHAE sachant que ceux-ci se basent essentiellement sur les questionnaires pour la constitution de leur modèle apprenant. Suite à une étude empirique d'une cinquantaine de SHAE existants, révélant leurs atouts et limites, certains objectifs de recherche ont été identifiés afin d'améliorer l'expérience d'apprentissage à travers ces systèmes. Ces objectifs visent à établir un modèle de SHAE capable de (i) déterminer les données du modèle apprenant de façon implicite à partir des réseaux sociaux tout en répondant aux standards associés à ce modèle afin de construire le modèle apprenant; (ii) favoriser la collaboration entre les différents apprenants qui seraient mieux motivés à apprendre en collaborant; (iii) personnaliser, de façon automatique, de nouveaux aspects à savoir l'approche pédagogique, la collaboration et le feedback selon les traits de personnalité de l'apprenant en plus des trois volets existants. Un modèle de SHAE a été proposé pour répondre à ces objectifs. Ce modèle permet d’extraire les données personnelles de l'utilisateur à partir de ses réseaux sociaux et de prédire ses traits de personnalité selon son interaction avec ces réseaux. Par la suite, il est possible d'adapter les objets d'apprentissage, sur la base d'un système de recommandation, à ces traits de personnalité en plus du style d'apprentissage et du niveau de connaissances des apprenants. L'adaptation aux traits de personnalité de l'apprenant selon le modèle Big Five a permis de personnaliser de nouveaux aspects tels l'approche pédagogique, le type de collaboration et le feedback. Un prototype, "ColadaptLearn", conçu à partir de ce modèle et expérimenté avec un ensemble d'étudiants a permis de valider les choix du prototype pour les objets d'apprentissage, selon les règles préétablies, en les confrontant aux choix faits par les étudiants. Ces données ont été utilisées pour développer un réseau bayésien permettant de prédire les objets d'apprentissage adéquats aux futurs apprenants. Les résultats de l’expérimentation ont montré qu'il y a une bonne concordance entre les choix du prototype et ceux des apprenants, en plus d'une satisfaction de ces derniers par rapport aux feedbacks reçus, ce qui appuie le rajout des nouveaux aspects proposés. Comme suite à cette thèse, il est envisageable d'appliquer le modèle proposé dans des environnements d'apprentissage plus larges de types cours en ligne ouverts et massifs, jeu sérieux ou même des formations mobiles, ce qui contribuerait à mieux valider les propos amenés. Il est aussi possible d’utiliser des techniques d'apprentissage automatique autres que les réseaux bayésiens pour la prédiction des objets d'apprentissage adaptés. Finalement, il serait intéressant d'explorer d'autres sources de données qui pourraient fournir plus d'informations sur l'apprenant de façon implicite tels ses centres d'intérêt ou ses émotions auxquels un SHAE pourrait s'adapter.With the growth of online learning accessible to all, learning personalization is becoming increasingly crucial and presents new challenges for researchers. It is currently essential to take into account the heterogeneity of the target audience and adapt educational content to their needs and learning style in such a way that they are able to fully benefit from these learning forms and prevent them from dropping out. This research work addresses learning personalization through adaptive educational hypermedia systems (AEHS). These systems are designed to customize the learning process according to specific criteria, such as prerequisites or, more often, learning styles, by generating a suitable learning path. AEHS are generally based on three main models: the learning model, the domain model and the adaptation model. Although the learning process customization offered by current AEHS is beneficial to learners, it still has some limitations. On one hand, just the fact of personalizing learning increases the likelihood that the content presented to the learner will be useful and thus better understood. But on the other hand, customization in existing AEHS is limited to the criteria knowledge level and learning style and applies only to certain aspects which have not evolved since their creation, namely content, presentation and navigation. This questions the relevance of the learning objects assigned to learners and their motivation to use such AEHS, knowing that they rely essentially on questionnaires to build their learner model. After conducting an empirical study of 50 existing AEHS, revealing their strengths and limitations, some research objectives were identified to improve the learning experience through such systems. These objectives aim to establish an AEHS model which is able to (i) implicitly identify the learning model data on the basis of social networks while meeting the associated standards; (ii) promote collaboration between different learners who would be better motivated to learn while collaborating; (iii) automatically customize new aspects such as the teaching approach, collaboration and feedback according to learners' personality traits in addition to the three existing ones. An AEHS model has been proposed to meet these objectives. This model makes it possible to extract the user's personal data from his social networks and to predict his personality traits depending on his interaction with these networks. Thereafter, it is possible to adapt the learning objects, on the basis of a recommendation system, to these personality traits in addition to the criteria learning style and knowledge level. Adapting to the learner's personality traits according to the Big Five model enabled the customization of new aspects such as the pedagogical approach, the collaboration type and the feedback. A prototype, "ColadaptLearn", based on this model and experimented with a group of students, validated the prototype's choices for learning objects while confronting them to the students' choices. These data were then used to build a Bayesian network to predict the appropriate learning objects for future learners. The experimental results showed that there is a good match between the prototype choices and those of learners, in addition to learners' satisfaction regarding the feedback received, which supports the addition of the proposed new aspects. As a follow-up to this thesis, it is possible to apply the proposed model in a larger learning environment such as massive open online courses (MOOC), serious games or mobile learning, which would help to validate the proposals made. It is also possible to use other automatic learning techniques than Bayesian networks to predict suitable learning objects. Finally, it would be interesting to explore other data sources that could implicitly provide more information about the learner, such as his or her interests or emotions that an SHAE could adapt to

    Modèle multi-agents pour le filtrage collaboratif de l'information

    Get PDF
    Les systèmes de recommandation sont nés de la volonté de pallier le problème de surcharge d'information du web. Combinant des techniques de filtrage d'information, personnalisation, intelligence artificielle, réseaux sociaux et interaction personne-machine, les systèmes de recommandation fournissent à des utilisateurs des suggestions qui répondent à leurs besoins et préférences informationnelles. En effet, les systèmes de recommandation sont particulièrement sollicités dans les applications de commerce électronique. Cependant, ce type de système a été en grande partie confiné à une architecture centralisée. Récemment, l'architecture distribuée a connu une popularité croissante, comme en témoigne par exemple, les réseaux pair-à-pair (« peer-to-peer »), le calcul distribué (« Grid computing »), le web sémantique, etc., et s'impose peu à peu comme une alternative à l'approche client/serveur classique. L'hypothèse des chercheurs est que les systèmes de recommandation peuvent tirer profit d'une architecture distribuée. Dans cette thèse, nous étudions les défis que posent les systèmes de recommandation distribués et nous proposons une nouvelle architecture pair-à-pair, de filtrage collaboratif, basée sur la discrimination du voisinage. Nous étudions l'évolution de la performance, de la couverture et de la qualité des prédictions pour différentes techniques de recommandation. En outre, nous identifions la méthode de recommandation la plus efficace pour cette nouvelle architecture pair-à-pair. Bien que cette thèse se concentre essentiellement sur le domaine décentralisé de système de recommandation, nos contributions ne se limitent pas strictement à ce domaine de recherche. En effet, ces contributions touchent des problèmes de recherche dans plusieurs autres domaines de recherche (système multi-agents, gestions profils utilisateurs, réduction de la complexité computationnelle, collecte des préférences utilisateurs, PageRank, etc.). ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Filtrage de l'information, Filtrage collaboratif, Système de recommandation, Système distribué, Agent social

    Modélisation centrée sur l'acteur dans une approche e-veille : analyse de corpus sur les nanotechnologies

    Get PDF
    International audienceThis article illustrates the architecture of a watching system that meets the one hand, the specific needs of the watcher, and on the other hand, it presents a generic view on the various projects in progress to provide a global vision of results. The generic architecture is focused on the needs and preferences of different watchers. In our approach, modeling and classification of different information exchanged throughout the watching process have been proposed in knowledge management.Cet article illustre l'architecture d'un système de veille qui répond, d'un côté, à des besoins spécifiques du veilleur et, d'un autre côté, il présente une vue générique sur les différents projets en cours afin de donner une vision globale des résultats. L'architecture générique est centrée sur les besoins et les préférences de différents acteurs de veille. Dans notre approche, la modélisation et la hiérarchisation des différentes informations échangées tout au long du processus de veille ont été projetées en gestion des connaissances

    LORESA : un système de recommandation d'objets d'apprentissage basé sur les annotations sémantiques

    Full text link
    Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

    Modèle d'analyse morpho-syntaxique adaptatif au web usages : ré-indexation sociale dans une norme syntagmatique

    Get PDF
    Colloque international, Novembre 2013, sur : "La Néologie, les corpus informatisés et les processus d’élaboration des langues de moindre diffusion“, tenu à Ghardaïa, Algérie. (http://www.paragraphe.univ-paris8.fr/colloque_international/amenagement_lexical_terminologie_traductionnelle/).International audienceIn the presentation of this problematic , the contribution of the user whom consults content while leaving traces of his actions, can capitalize information and knowledge for the benefit of the reindexing process . this opens reflections on the process of research on content management (see multimedia) by usage and therefore a review on the organization of knowledge between content, users and needs . In the context of the reindexing , it is necessary to rethink the system of knowledge management to contain the activities around content, uses and needs. To do so, the proposed methodology and applied grows on the following aspects: (i ) Definition and filtering semantic concepts in content for indexing , (ii) Organization of knowledge in the process of information retrieval , (iii) Management knowledge to answer an information need of the user, and ( iv ) Cognitive comments on the content and implication of Practice for control the variability formal implementations.Le processus d'indexation consiste dans le fait de décrire des contenus dans une forme simple et manipulable pour les rendre exploitables et pour en assurer l'usage. Ce dernier est le plus habituel qu'est la recherche d'informations par le contenu. Ce dernier est décrit par une séquence structurée ou non de mots-clés (concepts ou descripteurs) ; cette séquence constitue l'index pour un document. L'usager quand il invoque le processus de recherche d'informations (RI), sa requête se formule en une séquence de mots empruntés ou assimilés au même vocabulaire que l'indexation, puis le système RI compare la requête et l'index des contenus pour proposer des documents qui coïncident en tout ou en partie au besoin informationnel exprimé. Dans l'exposé de cette problématique, l'apport de l'usager, qui consulte des contenus tout en laissant des traces sur ses actions, permet de capitaliser des informations et des connaissances au profit du processus de réindexation. Ce dernier point ouvrira des réflexions de recherche autour du processus de gestion de contenus (voir le multimédia) par les usages et donc un réexamen sur l'organisation des connaissances entre les contenu, les usagers et les besoins. Dans le contexte de la réindexation, il est nécessaire de repenser le système de management de la connaissance pour contenir les activités autour des contenus, usages et besoins. Pour se faire, la méthodologie proposée et appliquée se développe sur les aspects suivants : (i) Définition et filtrage de concepts sémantiques dans les contenus pour l'indexation, (ii) Organisation des connaissances dans le processus de recherche d'informations, (iii) Gestion de connaissances pour réponde à un besoin informationnel de l'usager, et (iv) Observations cognitives sur les contenus et implication des usages pour maîtriser la variabilité des implémentations formelles

    Fouille multidimensionnelle sur les données textuelles visant à extraire les réseaux sociaux et sémantiques pour leur exploitation via la téléphonie mobile

    Get PDF
    La concurrence est un concept fondamental de la tradition libérale et des sciences économiques qui oblige les entreprises à pratiquer l'Intelligence Economique (IE) pour bien se positionner sur le marché ou tout simplement pour survivre. Mais souvent, ce n'est pas le plus fort qui survit, ni le plus intelligent, mais celui qui est le plus sensible au changement, facteur dominant dans la société actuelle. Les changements proviennent de l'extérieur ou naissent au sein même de l'entreprise et peuvent l'affecter plus ou moins durablement. Dès lors, les entreprises sont appelées à rester constamment en veille pour guetter le moindre changement en vue d'y apporter la solution adéquate en temps réel. Cependant, pour une veille réussie, on ne doit pas se contenter uniquement de surveiller les opportunités, mais avant tout, d'anticiper les menaces. Malheureusement, cette veille se déroule en oubliant l'indispensable volet sécurité de l'IE à savoir la sécurité des données manipulées et celle des procédés suivis pour atteindre les objectifs de l'IE. Nos travaux de recherche consistent à proposer un Système d'Intelligence Economique (SIE) Généraliste et Mobile. Ce SIE intègre une approche de modélisation du contrôle d'accès aux données et aux traitements pour sécuriser toutes les informations et les flux d'interaction durant son cycle de vie. Le besoin en matière de sécurité dans un SIE provient du fait que les informations manipulées sont d'ordre stratégique ayant une valeur assez importante. Une telle sécurité ne doit pas être considérée comme une option supplémentaire qu'offre un SIE pour se distinguer d'un autre. D'autant plus que la fuite de ces informations n'est pas le fait de faiblesses inhérentes aux systèmes informatiques des entreprises, mais c'est avant tout une question organisationnelle. La mobilité présente un choix stratégique pour notre SIE ''XPlor EveryWhere'', dont le but est de permettre aux utilisateurs de nos solutions de veille de continuer à rechercher, surveiller, valider et rediffuser des informations stratégiques au cours de leurs déplacements. Ils n'ont ainsi plus besoin d'être assis face à leur ordinateur pour accéder à des données utiles dans l'instant (préparation d'une réunion, nouvel ordre du jour, information sur un interlocuteur, une technologie, un marché, demande urgente d'une analyse ou d'un focus spécifique). Il leur suffit simplement d'utiliser discrètement, et en tout sécurité, leur appareil mobile. Grâce à XPlor EveryWhere, ils sont en permanence au cœur de l'information pertinente.Competition is a fundamental concept of the liberal economy tradition that requires companies to resort to Competitive Intelligence (CI) in order to be advantageously positioned on the market, or simply to survive. Nevertheless, it is well known that it is not the strongest of the organizations that survives, nor the most intelligent, but rather, the one most adaptable to change, the dominant factor in society today. Therefore, companies are required to remain constantly on a wakeful state to watch for any change in order to make appropriate solutions in real time. However, for a successful vigil, we should not be satisfied merely to monitor the opportunities, but before all, to anticipate risks. The external risk factors have never been so many: extremely dynamic and unpredictable markets, new entrants, mergers and acquisitions, sharp price reduction, rapid changes in consumption patterns and values, fragility of brands and their reputation. To face all these challenges, our research consists in proposing a Competitive Intelligence System (CIS) designed to provide online services. Through descriptive and statistics exploratory methods of data, Xplor EveryWhere display, in a very short time, new strategic knowledge such as: the profile of the actors, their reputation, their relationships, their sites of action, their mobility, emerging issues and concepts, terminology, promising fields etc. The need for security in XPlor EveryWhere arises out of the strategic nature of information conveyed with quite a substantial value. Such security should not be considered as an additional option that a CIS can provide just in order to be distinguished from one another. Especially as the leak of this information is not the result of inherent weaknesses in corporate computer systems, but above all it is an organizational issue. With Xplor EveryWhere we completed the reporting service, especially the aspect of mobility. Lastly with this system, it's possible to: View updated information as we have access to our strategic database server in real-time, itself fed daily by watchmen. They can enter information at trade shows, customer visits or after meetings

    Entre trivialité et culture : une histoire de l’Internet vernaculaire: Emergence et médiations d’un folklore de réseau

    Get PDF
    From Cybercultural studies to new Web science, Media and Communication theory engage in analyzing scientific models of the Internet that are mostly homogeneous : models built on the faith in the universal language of networked information and tending to creating norms and/or rules for network communication. There are new cultural, economical and even political institutions appearing that rely on a vehicular model that is widely accepted, although criticized.In my thesis I come back to the sources of this criticism by opening a vernacular perspective, which is a concept borrowed from socio-linguistics and reinterpreted under the light of network culture. It allows to think about the relation between values (the vulgar, the popular, the trivial) and media practices of groups manifested as Internet folklore. From the point of view of a local theory (Jacques Perriault), the vernacular perspective opens a field of analysis understood as composite (Joëlle Le Marec), that is a complex of unstable relations between discourse and matter, technologies and their uses, practices, representations and norms. Folklore, by definition formalist and traditional, transforms itself within network culture to become a media process based on appropriation and commentary, two of the most crucial characteristics of the Internet thought of as meta-medium (Philip Agre). Folklore and vernacular provide important elements to sketch a cultural theory of information and communication in terms of « triviality »‘ (Yves Jeanneret) – a culture defined by is mediations and transformations. This thesis, by investigating archeologically the archives of Internet’s micro-history to dig out its folklore, analyzes dynamically contexts that have allowed the social information of contemporary network culture.Studying two periods of network history that are defined partly by the tools of access to the Internet (Usenet in the 80’s and early 90’s and the Web 1.0 in the 90’s and the 2000’s), my research takes a close look at how Internet folklore is invented, experiment, produced and reproduced interacting with content-management media (emailing and newsgroups, homepages, blogs). These apparatuses are seen as « architexts » (following French semiology in media interfaces), which content cannot be understood without an analysis of their system and forms (their « metaforms ») and the process of computer and cultural codes that defined their context of production.A first series of case studies dig out the roots of Internet folklore, its emergence within the first large-scale virtual community : Usenet – and in particular the alt. newsgroup hierarchy. From ASCII Art to Flame Wars and through the pantheon of Net.legends, I show how the leisure and experimental use of communication and information processing rules allow the users to confront the difficulties and dead-ends of collective regulation. The Usenet public, celebrating and participating in network folklore, is testing instruments that give power in writing and expressing opinions. These situations are named « metatexts » : they develop commentaries and folkloric theories on the complex problem of « metarules ». From an Internet micro-historical point of view, they are the basis of a sub-culture that reinvented public discourse within a network context : commenting, conversing, evaluating and filtering, all through the computer media.A second series of case studies approaches network folklore from another angle. Through and experience of participant-observation, I borrow the outlook of two generations of Internet artists on Web popular creativity. The first generation, net.art, considered as pioneer in art happening on the Web in the mid-90’s, starts a process of valuing and mediating amateur creativity in the homepages. The second generation, the surfclubs, recipient to the net.art heritage in the context of Web 2.0, give a new understanding and context to network cultural practices within collective blog networks inspired from image forums, the new territories of emergence for network folklore. The eye of Net art channels the observation of a specific evolution of network vernacular : conflicts about the value and the legitimation of this cultural « popular » matter seem to resolve in the new mainstream tendencies of the social Web. New leisure figures appear, between amateur and professional network practices, inspired by the aesthetic and the informational value of Internet folklore. This issue opens up new discussion on the socio-economics of network culture.The vernacular perspective updates the conflictual relations between, technology, society and culture that have built the Internet and marked its history. Its shows that they are dialogic articulations between users’ creativity and institutional norms that structure the network environment. It uncovers little known archives that reveal the voices of the actors of this cultural micro-history. it signals epistemological problems about material and methods for network culture analysis by suggesting that this should be handled from the bottom up, accompanying the emergence of media practice in the cultural economy of today’s Web.De la perspective cyberculturelle aux nouvelles sciences du Web, les Sciences de l’Information et de la Communication étudient des modèles scientifiques d’Internet marqués par une forme d’homogénéité : celle portée par la croyance en un langage universel de l’information et tendant vers la normalisation et/ou la régulation des outils de la communication en réseau. Ainsi, les nouvelles tendances à l’institutionnalisation de la culture, de l’économie voire de la politique des réseaux reposent sur un modèle véhiculaire prégnant et généralement accepté, bien que souvent critiqué.Je propose de revenir aux sources de ces critiques en les envisageant sous la dimension du vernaculaire, notion empruntée à la socio-linguistique et réinterprétée sous l’angle de la médiation de culture informatique en réseau. Dans ce cadre, cette notion permet de penser l’articulation entre des valeurs (le vulgaire, le populaire, le trivial) et des pratiques médiatiques de groupes qui se manifestent dans un « folklore Internet ». Attachée à une théorie locale des usages techniques (J. Perriault), la perspective vernaculaire ouvre un terrain d’analyse placé sous le sceau du composite (J. Le Marec), c’est-à-dire les relations instables et complexes d’artefacts faits de discours et de matière.Le folklore, par définition formel et traditionnel, se transforme au sein de la culture de réseau pour devenir un processus de médiation fondé sur l’appropriation et le commentaire, deux des grandes caractéristiques d’Internet pensé comme méta-médium (P. Agre). Folklore et vernaculaire fournissent des éléments importants pour envisager une théorie culturelle de l’information et de la communication en termes de « trivialité » (Y. Jeanneret) – une culture définie par ses médiations et ses transformations. Cette thèse se propose, en allant faire l’archéologie des archives de la micro-histoire d’Internet pour y retrouver son folklore, d’analyser de manière dynamique les contextes qui ont permis l’information sociale de la culture de réseau contemporaine.A partir de deux périodes de l’histoire des réseaux marquées par deux réseaux privilégiés d’accès à Internet (Usenet, années 1980-1990 ; le Web, années 1990-2000), j’analyse les contextes de communication dans lesquels un folklore Internet s’invente, s’expérimente, se produit et se reproduit en interaction avec des dispositifs de médiation de contenu en réseau (messagerie, pages personnelles, blogs). Adoptant un point de vue « architextuel » (empruntant à la sémiotique des interfaces et des médiations informatisées), mes études s’intéressent tout aussi bien aux contenus qu’aux formes et métaformes ainsi qu’aux processus de codification informatiques et culturels de ces contextes.Une première série d’études de cas se penche sur les racines du folklore Internet, son émergence au sein de la première communauté virtuelle de grande ampleur, Usenet – en particulier dans la hiérarchie alt. du groupe. De l’art ASCII aux flame wars en passant par le panthéon des célébrités de Usenet, je montre comment l’usage ludique et expérimental des règles de communication et du transfert d’information sur le réseau permettent aux usagers d’affronter les difficultés et les apories de la régulation collective. Le public Usenet, dans la célébration et sa participation au folklore de réseau, teste des instruments qui lui donne un pouvoir d’écriture et d’opinion. Ces situations, je les nomme « métatextes » : des commentaires ludiques et des théories folkloriques sur la question complexe des « métarègles ». En terme de micro-histoire de l’Internet, elles sont fondamentales pour comprendre, à partir de ce qui était à l’origine une sous-culture, le développement culturel du commentaire et de la conversation, de l’évaluation et du filtrage de l’informatique sur le réseau actuel.Une deuxième série approche le folklore de réseau sous une autre forme, et dans une perspective différente. J’emprunte, dans le cadre d’une expérience d’observation-participante, le regard de deux générations d’artistes Internet portées sur la création populaire du Web. Le net.art, pionnier de l’art sur le Web dans les années 1990 (Web 1.0), valorise et médiatise la créativité amateur des pages personnelles. Les surfclubs, héritiers directs dans le cadre du web social des années 2000 (Web 2.0), recontextualisent ces pratiques au sein de réseaux de blogs et s’inspirent des forums d’images, nouveaux lieux d’émergence du folklore Web. L’oeil du Net art permet d’observer une évolution particulière du vernaculaire de réseau : les conflits de légitimation de cette matière culturelle « populaire » semblent se résoudre dans les nouvelles tendances du Web social pour donner lieu à de nouvelles figures du loisir en ligne. Apparaissent alors des professionnels qui s’inspirent de l’esthétique et des pratiques informationnelles des amateurs et les remédiatisent. Cette « résolution » est en fait l’entrée dans de nouveaux enjeux, socio-économiques cette fois, qui pour être compris devront être analysés à partir de cette généalogie historique du vernaculaire Internet.L’approche vernaculaire permet de mettre à jour les conflits techniques, sociaux et culturels ayant joué un rôle crucial dans l’histoire d’Internet : elle éclaire l’articulation dialogique entre la créativité des usagers et les normes institutionnelles qui structurent l’environnement-réseau. Elle fait découvrir des archives peu connus qui révèlent les voix des acteurs micro-historique du réseau des réseaux. Elle signale une série de problèmes épistémologiques sur les matériaux et les méthodes d’analyse de la culture d’Internet en proposant une vision d' »en bas » (« bottom up ») qui accompagne l’émergence des médiations de l’économie culturelle du Web d’aujourd’hui

    Analyse comparative de la terminologie des médias sociaux : contribution des domaines de la communication et de l'informatique à la néologie

    Full text link
    L’objectif de cette étude est de repérer des néologismes à partir de corpus de textes français au moyen d’une méthode semi-automatique. Plus précisément, nous extrayons les néologismes de corpus associés à deux domaines différents, mais traitant du même thème, nous examinons leur répartition et nous les classons selon leur type. L’étude s’appuie sur l’analyse de corpus traitant des médias sociaux. Le premier aborde les médias sociaux du point de vue de la communication, l’autre le fait du point de vue de l’informatique. Ces points de vue ont été privilégiés, car la communication considère ce qui a trait l’utilisation des médias sociaux et l’informatique aborde leur cartographie. La méthode fait appel à l’extracteur de termes TermoStat pour recenser la terminologie des médias sociaux pour chaque point de vue. Ensuite, nous soumettons les 150 termes les plus spécifiques de chaque point de vue à une méthode de validation divisée en trois tests destinés à valider leur statut néologique : des dictionnaires spécialisés, des dictionnaires de langue générale et un outil de visualisation de n-grammes. Finalement, nous étiquetons les néologismes selon la typologie de Dubuc (2002). L’analyse des résultats de la communication et de l’informatique est comparative. La comparaison des deux corpus révèle les contributions respectives de la communication et de l'informatique à la terminologie des médias sociaux en plus de montrer les termes communs aux deux disciplines. L’étude a également permis de repérer 60 néologismes, dont 28 sont exclusifs au corpus de la communication, 28 exclusifs à celui de l’informatique et 4 communs aux deux corpus. La recherche révèle également que les composés par subordination sont les types de néologismes les plus présents dans nos résultats.The objective of this study is to identify the neologisms within corpora of French texts by means of a semi-automatic method. More precisely, we will extract the neologisms from corpora associated to two different areas; however dealing with the same topic, we examine their distribution and we classify them according to their type. This study is based on an analysis of two corpora within social media. The first one approaches social media from the point of view of communication, and the other approaches it from the point of view of computer science. We prioritize these two points of view being that communication is used as the main source of social media’s utilization and that computer science allows us to understand what is involved to allow for social media to be functional. For this method, we use the TermoStat term extractor in order to take census of terminology for each point of view. We then submit 150 of the most specific terms related to each point of view by way of an exclusion corpus from which we divide into three different tests meant to validate their neological status: specialized dictionaries, general language dictionaries, and a visualization tool for n-grams. Lastly, we label the neologisms according to Dubuc’s (2002) typology. The analysis of the results obtained for communication and computer science uses a comparative method. The comparison of the two corpora reveals the respective contributions from communication and computer science with respect to the terminology of social medias, as well it demonstrates common terms found within the two disciplines. This examination also allowed for the identification of 60 neologisms; of which 28 are exclusive to the corpus of communication, another 28 are exclusive to that of computer science, and four were found to be common to both corpora. This research also reveals that subordinate compounds are the most present types of neologisms according to our results
    • …
    corecore