590 research outputs found

    Le développement du réseau Mir@bel pour le signalement et l'accès aux revues francophones en SHS: Un exemple d'adaptation aux transformations du numérique

    Get PDF
    National audienceWith the digital transition, the evolution of arrangements for the dissemination of journals in Social Sciences and Humanities (SSH) leads to changes in the methods and tools used by librarians on how to report online access and to face the vast and scattered amount of information available as well as the diverse business models and the question of open access. The need to control the metadata operated and to acquire specific skills has led to the establishment of the Mir@bel project. This library and information network produces a shared knowledge base, gateway to journals, which includes commercial packages such as open access journals. Information on access available online (full text, abstracts, tables of contents) is enriched with additional external links. The partners share the intelligence on journals and control the flow of data aggregated automatically from the four main french language platforms (Cairn.info, Érudit, Persée, Revues.org). The development and organization of the network, its international openness and diversification of partnerships, such as changes in working practices, are other significant results of the project. Mir@bel sketches what could be an information tool for journals, extended to all facets of their digital presence.Liée à la transition numérique, l'évolution des modalités de diffusion des revues en Sciences humaines et sociales (SHS) entraîne une évolution des méthodes et outils mis en œuvre par les professionnels de l'information pour signaler les accès en ligne et faire face à la très grande quantité d'information disponible, à sa dispersion, aux modèles économiques variés et à la question de l'accès ouvert. La nécessité de maîtriser les métadonnées opérées et d'acquérir des compétences spécifiques a conduit à la mise en place du projet Mir@bel. Ce réseau documentaire produit une base de connaissance mutualisée, porte d'entrée sur les revues, qui intègre les bouquets commerciaux comme les revues en libre accès. L'information sur les accès en ligne disponibles (texte intégral, résumés, sommaires) est enrichie de liens rebonds complémentaires. Les partenaires se partagent la veille sur les revues et contrôlent les flux de données agrégés automatiquement depuis les quatre principaux portails francophones (Cairn.info, Érudit, Persée, Revues.org). Le développement et l'organisation du réseau, son ouverture internationale et la diversification des partenariats, comme l'évolution des pratiques professionnelles, sont d'autres acquis significatifs du projet. Mir@bel esquisse ce que pourrait être un outil documentaire pour les revues, étendu à toutes les facettes de leur présence numérique

    Utilisation d'un algorithme génétique pour la composition de services Web

    Get PDF
    L'architecture orientée services (SOA) est une évolution architecturale des systèmes d'informations qui formalise le concept d'échange et de partage inter-application. L'approche SOA utilise un annuaire de services (UDDI) qui joue un rôle de médiateur entre le fournisseur et le consommateur de services. Le fournisseur ou le producteur de services enregistre la description de son service et, par la suite, le consommateur va interroger l'annuaire afin de trouver un service approprié à ses besoins à partir des descriptions publiées. Une mise en oeuvre possible de cette architecture consiste à utiliser le Web comme support pour la communication entre services. Une telle architecture entraîne donc que les services soient exposés sur le web, qu'on appelle services Web. L'avantage de cette approche est, d'une part, de créer un bassin de clientèle pour les fournisseurs et, d'autre part, de mettre en place une base de services importante à l'attention des consommateurs. Un problème qui apparaît à la mise en oeuvre de cette architecture basée sur les services Web est que le processus de découverte devient assez complexe, et ce en raison de la multitude de services offerts sur Internet, de l'absence d'un standard de représentation des requêtes des consommateurs et en l'absence d'un moteur de recherche efficace. Notre travail consiste à développer une application basée sur les techniques des algorithmes génétiques pour la découverte et la composition de services Web. Le consommateur exprime le service Web désiré par un fichier de description WSDL. Le système interroge un espace de recherche sous la forme de collection de services Web et donne comme résultat une liste de services possibles (population). Le critère de sélection d'un service est sa valeur de similarité avec le service cible. Les éléments de la population résultat sont des services qui existent dans l'espace de recherche (découverte d'un service approprié) ou qui ont été créés par le biais de la composition de services existants. Notre choix d'une approche utilisant les algorithmes génétiques s'est fait parce que les opérations\ud utilisées par un algorithrne génétique -croisement, mutation, sélection -semblaient avoir une grande correspondance avec la composition de services Web. Les quelques tests que nous avons effectués pour évaluer notre approche semblent justifier notre choix de ces techniques. Toutefois, les résultats pourraient être améliorés par l'introduction de notions sémantiques et le temps de réponse pourrait être amélioré par l'utilisation de parallélisme dans nos algorithmes génétiques. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Services Web, Composition de services, Architecture orientée services (SOA), Web Services Description Language (WSDL), Simple Object Access Protocol (SOAP), Algorithmes génétiques

    Modélisation de connaissances à partir de textes pour une recherche d'information sémantique

    Get PDF
    Avec l'avènement d'Internet et des réseaux d'entreprise, les documents numériques ont subi de profondes transformations, tant dans la diversification de leur support (texte, image, son, vidéo), que dans la forte augmentation de leur nombre accessible informatiquement. La Recherche d'Information (RI) a alors pris une importance capitale : l'utilisateur en quête de données répondant à ses besoins veut disposer de logiciels capables d'exploiter les contenus textuels et de trouver automatiquement tout document pertinent pour la requête. Pour comparer selon leur sens requête et documents, la RI sémantique nécessite deux opérations préalables : l'obtention d'un modèle des connaissances manipulées et, grâce à lui, l'indexation sémantique des données textuelles. Dans ce mémoire, nous étudions les modèles de Ressources Termino-Ontologiques (RTO) adaptés à la RI et développons un formalisme qui, contrairement aux approches classiques, décrit explicitement la relation entre termes du lexique et concepts de l'ontologie, tout en respectant le standard OWL-DL. Nous abordons ensuite la problématique de maintenance d'une RTO pour la RI : quand un domaine évolue dans le temps, sa RTO correspondante doit être modifiée en conséquence. L'originalité de notre approche réside dans la mise en parallèle entre maintenance de RTO et indexation sémantique : l'ontographe définit des règles évaluant automatiquement la correction de la RTO en fonction des résultats d'indexation attendus ; appliquées aux documents à indexer, ces règles aident à repérer ceux qui témoignent de la nécessité de maintenance. L'outil présente alors ces documents avec des conseils de modification. Notre dernière contribution inclut notre formalisme de RTO et le cycle de maintenance au sein d'un processus global de RI sémantique. Nous nous intéressons notamment à la comparaison sémantique d'un document à une requête en langue naturelle. Nous proposons une mesure de similarité tenant compte de la proximité taxonomique de deux notions, ainsi que de la manière dont chacune est reliée sémantiquement à d'autres éléments. La pertinence de nos contributions a été principalement mise à l'épreuve par la réalisation et l'utilisation d'un prototype d'outil pour la RI sémantique dans le cadre d'un partenariat avec Actia, une société spécialiste du diagnostic automobile.With the spreading of Internet and local networks, numerical documents have been undergoing deep mutations, mainly due to the diversification of supports (text, image, sound, video) and their high number accessible by computers. Information Retrieval (IR) has thus become crucial: any user of a search engine wants it to be able to process textual contents to find automatically all documents relevant for their query. In order to compare a query with a document, semantic IR needs two prior operations to be carried out: obtaining a model for the handled knowledge and using it to index semantically the textual data. In this thesis, we study Ontological and Terminological Resources (OTR) adapted for IR and we develop a formalism which, unlike classical approaches, explicitly describes the relationship between terms and concepts, while respecting OWL-DL standard. Afterwards, we broach the topic of maintaining an OTR for IR: when a domain evolves in time, its corresponding OTR must be modified accordingly. The originality of our approach lies in the parallel computing of OTR maintenance and semantic indexing: the engineer can define rules which evaluate automatically the correctness of the OTR with respect to the expected indexing results; applied to the documents to be indexed, these rules help to spot the ones which show the necessity of maintaining the OTR. The tool then displays these documents with evolution advice. Our last contribution consists in integrating our OTR formalism and the maintenance cycle into a global semantic IR process. We especially focus on the semantic matching between a document and a keyword based query. We propose a semantic similarity measure which takes into account both the taxonomical proximity of two notions and the way each one is semantically connected to other entities. The relevance of our contributions was mainly tested by the implementation and use of a prototype tool for semantic IR as part of a partnership with ACTIA, a company specialized in automotive diagnosi

    Filtrage d'Arnaques dans un Corpus de Spams : Une application de Filtrar-S à la sécurité du citoyen

    Get PDF
    National audienceThis paper presents the testing of the softwares designed during the Filtrar-S project that is supported by ANR and belongs to the CSOSG 2008 financial session(http://www.filtrar-s.fr). The semantic filtring module of Filtrar-S has been used to find in a spam corpora the spams that are a kinds of scams and are therefore called Scams. This application responds to a need for the Division de Lutte Contre la Cybercriminalité de la gendarmerie nationale and it was conducted in collaboration with the association Signal Spam (http://www.signal-spam.fr). Actual performance is good and demonstrate the relevance of Filtrar-S to solve problems related to security of the citizen.Cet article présente les résultats d'un essai des logiciels conçus et développés dans le cadre du projet Filtrar-S, financé par l'ANR, dans le cadre du programme CSOSG 2008 (http://www.filtrar-s.fr). Il s'agissait d'utiliser Filtrar-S et son module de filtrage sémantique pour filtrer des spams d'arnaques (ou Scams) dans un corpus de spams. Cette application répond à un besoin de la Division de Lutte Contre la Cybercriminalité de la gendarmerie nationale et elle a été menée en collaboration avec l'association Signal-Spam (http://www.signal-spam.fr). Les performances sont bonnes et démontrent la pertinence de Filtrar-S pour résoudre des problèmes liés à la sécurité du citoyen.

    Un environnement sémantique à base d'agents pour la formation à distance (E-Learning)

    Get PDF
    Aujourd’hui, les établissements d’enseignement, tels que les universités, de plus en plus offrent des contenus d’E -Learning. Certains de ces cours sont utilisés avec l'enseignement traditionnel (face à face ou présentiel), tandis que d'autres sont utilisés entièrement en ligne. La création de contenu d'apprentissage est une tâche principale dans tous les environnements d'apprentissage en ligne. Les contraintes de réduire au minimum le temps nécessaire pour développer un contenu d'apprentissage, d'augmenter sa qualité scientifique et de l'adapter à de nombreuses situations (contenu adaptatif), ont été un principal objectif et donc plusieurs approches et méthodes ont été proposées. En outre, les caractéristiques intellectuelles et sociales, ainsi que les styles d'apprentissage des individus, peuvent être très différents. Ces différences conduisent les personnes à adapter le contenu d'apprentissage en tenant compte des profils des apprenants et de leurs objectifs et caractéristiques. Cette recherche ouvre des portes pour les systèmes d'apprentissage avancées, qui fournissent aux apprenants immédiatement, des contenus d’apprentissage adaptés selon plusieurs critères de chaque apprenant. Alors que, il ne peut pas être pratique si nous n'avons pas plus d'informations sur l'apprenant et le contenu d'apprentissage (objectifs d'apprentissage, les prérequis, préférences, niveaux ...etc). Par conséquent, nous développons un système collaboratif, où plusieurs auteurs travaillent en collaboration, pour créer et annoter le contenu éducatif en utilisant le système multi-agents. La contribution de notre système est l'hybridation des techniques d'adaptation avec celles de la collaboration et du Web sémantique (ontologie, annotation). Nous représentons les profils des apprenants et le contenu d'apprentissage en utilisant des ontologies et des annotations pour répondre à la diversité et aux besoins individuelles des apprenants. Nous utilisons le paradigme agent, dans notre système, pour bénéficier des points forts de ce paradigme tels que la modularité, autonomie, flexibilité... etc

    La jurisprudence en accès libre à l'ère du contenu généré par les usagers

    Get PDF
    La collaboration et le contenu généré par les usagers, aussi appelé « Web 2. 0 », sont des phénomènes nouveaux, qui bâtissent sur l'ouverture et le foisonnement d'Internet. Les environnements numériques qui emploient ces moyens mettent à contribution la communauté qui gravite autour d'une présence virtuelle afin d'en enrichir l’expérience. Suivant une approche constructiviste, nous explorons commnent la collaboration peut servir les usagers d'une banque de donnée de jugements en accès libre par Internet, comme le site de l'Institut canadien d'information juridique (www.CanLIT.org). La collaboration s'articule grâce à un gabarit d'analyse que nous nommons «Cadre de diffusion de la collaboration». Il comporte deux classes d'objets, les usagers et les documents, qui interagissent selon quatre relations : les liens documentaires, les échanges entre usagers, l'écriture (de l'usager vers le document) et la consommation (du document vers l'usager). Le Cadre de diffusion de la collaboration met en lumière les modalités de la collaboration comme mécanisme de création de contenu dans un contexte numérique, au profit d'une classe de documents. Suite à une analyse les modalités de la jurisprudence comme système documentaire et d'un exposé illustratif des besoins des usagers de la société civile, le Cadre de diffusion de la collaboration est employé pour explorer les mécanismes à retenir pour enrichir le contenu d'un système diffusant des jugements par Internet.User generated content and collaboration, also called « Web 2.0 », offer new possibilities in the context of a thriving and open Internet. Digital environments that employ these production mecanisms allow user communities to enrich a virtual space. Using a constructivist approach, we explore how collaboration can serve the users of an open access database of court rulings, namely the Canadian Legal Information Institute's website (www.CanLU.org). Collaboration is set within a framework that we name the « Collaboration Framework ». There are two classes of objects, users and documents, that interact following four relationships: links between documents, exchanges between users, writing (from users to documents) and consumption (from documents to users). In turn, we can better understand how collaboration functions, given a specific class of documents. Following an analysis of court rulings as a system of documents and an illustration of user needs in civil society, the Collaboration Framework is applied to an open access database of court rulings in order to determine how users can enrich the system's content

    Inventaires systématiques et sémantiques du patrimoine et des musées: [interfaces hommes-machines agiles]

    Get PDF
    Le but de ce projet est de donner une vue homogène d’un système d’informations muséal hétérogène. Ce qui permettra d’une part de faire des requêtes sur un ensemble de musées sans se préoccuper des aspects techniques sous-jacents et d’autre part de consolider les données réparties dans des sources n’ayant pas, a priori, de relations explicites. Cette homogénéité doit être mise en place par une architecture particulière impactant : la technologie il faut pouvoir interroger des bases de données de diverses technologies ; les modèles des bases de données il faut pouvoir interroger plusieurs bases de données simultanément même si leurs structures de données ne sont pas identiques ; le métier il faut intégrer la façon dont la base a été pensée à son origine et son objectif local. Ce mémoire fait partie d’un projet articulé en quatre volets et dont certaines parties ont été réalisées par plusieurs étudiants de la HEG. Les quatre volets de ce projet sont : les interfaces hommes-machines agiles, les connecteurs, la communication par agent et l’ontologie commune. Mon travail concerne la partie « interfaces hommes-machines agiles ». Cela implique l’utilisation de technologies web qui se chargera d’interpréter les résultats issus d’une recherche et de les présenter dynamiquement sur une page web. Ce mémoire est constitué de cinq parties et d’une conclusion. La première partie présente l’état de l’art des systèmes de classification des collections des musées et particulièrement de Genève (API) et Lausanne (Muséris). La seconde partie décrit le mandat qui m’a été confié. La troisième partie analyse le domaine et les démarches que j’ai mis en oeuvre. La quatrième partie s’étend sur les technologies utilisées dans le cadre du mandat. La cinquième partie détaille la réalisation du mandat et les étapes réalisées. La conclusion du mémoire présente une synthèse de l’ensemble du projet et une discussion sur mon expérience

    Extraction et intégration des données à partir des pages WEB

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal
    • …
    corecore