129 research outputs found

    ScaleSem (model checking et web sémantique)

    Get PDF
    Le développement croissant des réseaux et en particulier l'Internet a considérablement développé l'écart entre les systèmes d'information hétérogènes. En faisant une analyse sur les études de l'interopérabilité des systèmes d'information hétérogènes, nous découvrons que tous les travaux dans ce domaine tendent à la résolution des problèmes de l'hétérogénéité sémantique. Le W3C (World Wide Web Consortium) propose des normes pour représenter la sémantique par l'ontologie. L'ontologie est en train de devenir un support incontournable pour l'interopérabilité des systèmes d'information et en particulier dans la sémantique. La structure de l'ontologie est une combinaison de concepts, propriétés et relations. Cette combinaison est aussi appelée un graphe sémantique. Plusieurs langages ont été développés dans le cadre du Web sémantique et la plupart de ces langages utilisent la syntaxe XML (eXtensible Meta Language). Les langages OWL (Ontology Web Language) et RDF (Resource Description Framework) sont les langages les plus importants du web sémantique, ils sont basés sur XML.Le RDF est la première norme du W3C pour l'enrichissement des ressources sur le Web avec des descriptions détaillées et il augmente la facilité de traitement automatique des ressources Web. Les descriptions peuvent être des caractéristiques des ressources, telles que l'auteur ou le contenu d'un site web. Ces descriptions sont des métadonnées. Enrichir le Web avec des métadonnées permet le développement de ce qu'on appelle le Web Sémantique. Le RDF est aussi utilisé pour représenter les graphes sémantiques correspondant à une modélisation des connaissances spécifiques. Les fichiers RDF sont généralement stockés dans une base de données relationnelle et manipulés en utilisant le langage SQL ou les langages dérivés comme SPARQL. Malheureusement, cette solution, bien adaptée pour les petits graphes RDF n'est pas bien adaptée pour les grands graphes RDF. Ces graphes évoluent rapidement et leur adaptation au changement peut faire apparaître des incohérences. Conduire l application des changements tout en maintenant la cohérence des graphes sémantiques est une tâche cruciale et coûteuse en termes de temps et de complexité. Un processus automatisé est donc essentiel. Pour ces graphes RDF de grande taille, nous suggérons une nouvelle façon en utilisant la vérification formelle Le Model checking .Le Model checking est une technique de vérification qui explore tous les états possibles du système. De cette manière, on peut montrer qu un modèle d un système donné satisfait une propriété donnée. Cette thèse apporte une nouvelle méthode de vérification et d interrogation de graphes sémantiques. Nous proposons une approche nommé ScaleSem qui consiste à transformer les graphes sémantiques en graphes compréhensibles par le model checker (l outil de vérification de la méthode Model checking). Il est nécessaire d avoir des outils logiciels permettant de réaliser la traduction d un graphe décrit dans un formalisme vers le même graphe (ou une adaptation) décrit dans un autre formalismeThe increasing development of networks and especially the Internet has greatly expanded the gap between heterogeneous information systems. In a review of studies of interoperability of heterogeneous information systems, we find that all the work in this area tends to be in solving the problems of semantic heterogeneity. The W3C (World Wide Web Consortium) standards proposed to represent the semantic ontology. Ontology is becoming an indispensable support for interoperability of information systems, and in particular the semantics. The structure of the ontology is a combination of concepts, properties and relations. This combination is also called a semantic graph. Several languages have been developed in the context of the Semantic Web. Most of these languages use syntax XML (eXtensible Meta Language). The OWL (Ontology Web Language) and RDF (Resource Description Framework) are the most important languages of the Semantic Web, and are based on XML.RDF is the first W3C standard for enriching resources on the Web with detailed descriptions, and increases the facility of automatic processing of Web resources. Descriptions may be characteristics of resources, such as the author or the content of a website. These descriptions are metadata. Enriching the Web with metadata allows the development of the so-called Semantic Web. RDF is used to represent semantic graphs corresponding to a specific knowledge modeling. RDF files are typically stored in a relational database and manipulated using SQL, or derived languages such as SPARQL. This solution is well suited for small RDF graphs, but is unfortunately not well suited for large RDF graphs. These graphs are rapidly evolving, and adapting them to change may reveal inconsistencies. Driving the implementation of changes while maintaining the consistency of a semantic graph is a crucial task, and costly in terms of time and complexity. An automated process is essential. For these large RDF graphs, we propose a new way using formal verification entitled "Model Checking".Model Checking is a verification technique that explores all possible states of the system. In this way, we can show that a model of a given system satisfies a given property. This thesis provides a new method for checking and querying semantic graphs. We propose an approach called ScaleSem which transforms semantic graphs into graphs understood by the Model Checker (The verification Tool of the Model Checking method). It is necessary to have software tools to perform the translation of a graph described in a certain formalism into the same graph (or adaptation) described in another formalismDIJON-BU Doc.électronique (212319901) / SudocSudocFranceF

    ABES et la BnF en route vers l\u27open data (L\u27)

    Get PDF
    Mémoire de fin d\u27étude du diplôme de conservateur, promotion 23, portant sur la démarche de coopération initiée par la BnF et l\u27ABES afin de faire face aux mutations engendrées par le mouvement de l\u27open data et des nouveaux usages de recherche d\u27information sur le web

    Conception et implémentation d'une plate-forme d'évaluation adaptative des apprentissages

    Get PDF
    Des avancées importantes ont été réalisées au cours de ces dernières décennies dans le domaine du E-learning. Ceci permet par exemple l'interopérabilité des plates-formes et l'adaptation du déroulement des apprentissages à l'apprenant. Mais certains composants du E-learning comme l'évaluation en ligne des apprentissages, sont encore en phase de développement. Comme conséquence de ce retard, dans la plupart des plates-formes de E-learning, les évaluations sont sous le format classique des tests malgré leurs limites et problèmes de précision. Or, en mettant à profit des techniques d'intelligence artificielle (lA), des théories en psychométrie et les normes actuelles dans le domaine du E-learning, il est possible d'intégrer des fonctionnalités permettant d'administrer des évaluations adaptatives et plus informatives à ces plates-formes. Les travaux présentés dans ce mémoire se situent dans ce contexte. Le mémoire présentera des algorithmes et des stratégies permettant l'adaptation des évaluations selon le niveau des habiletés cognitives des apprenants. Les résultats de ces évaluations serviront à faire un diagnostic cognitif sur les apprentissages de ces apprenants. Pour ce faire, nous devons nous assurer de la véracité des réponses fournies par les apprenants. Un mécanisme de détection de patrons de réponses inappropriées sera donc implémenté. Cette dernière fonctionnalité et le diagnostic cognitif seront présentés de façon sommaire. La plate-forme développée qui intègre toutes ses fonctionnalités est nommée PersonFit. Elle sera présentée ainsi que des stratégies permettant son intégration dans la plate-forme de E-learning Moodle. Finalement, une présentation et discussion sur les résultats d'implémentation permettront de juger de la pertinence et de l'efficacité du travail effectué. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : E-learning, Systèmes Tutoriels Intelligents, Théorie de la Réponse à l'Item, E-testing, Modèle de l'apprenant, Adaptation à l'apprenant, Moodle, PersonFit

    Étude pour la conceptualisation et la mise en place d'outils géomatiques Internet ouverts en sécurité civile

    Get PDF
    Today, most major cities and government agencies use GIS to manage emergency response systems like 911 and automated call dispatch systems. But during emergency crisis events like flash floods or earthquakes, the different local, regional and provincial crisis management authorities have difficulties exchanging and using basic spatial information describing the territory. This information is critical in maintaining public safety within the intervention areas. Many commercial solutions on the market today can be purchased and implemented but these are often costly and complicated to deploy. The objective of this research is to demonstrate that it is possible to conceive a geoportal composed of free OpenSource software using open standards with the goal to facilitate the collaboration of homeland security actors in Québec. The project also has the objective to demonstrate the portability and the ease of use of these Open systems on multiple types of computer platforms. The prototyping of the different solutions enabled us to test many innovative concepts and integrate a multitude of spatial thematic enabling a collaborative approach to crisis management. This was also done using open standards and OpenSource software. This research also helped demonstrate that the majority of geospatial information identified as necessary to manage an urban crisis existed but unavailable or not shared between homeland security stakeholders

    Extraction et intégration des données à partir des pages WEB

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    Patrimoine industriel : diversité et valorisation culturelle dans un univers numérique

    Get PDF
    Mémoire de fin d\u27étude du diplôme de conservateur, promotion DCB 20, portant sur la valorisation du patrimoine industriel avec l\u27aide ou non des technologies numériques

    Actes de la conférence conjointe JEP-TALN-RECITAL 2016, volume 09 : ELTAL

    Get PDF
    National audienceELTAL is a workshop organized within the JEP-TALN-RECITAL 2016 conference. This workshop brings together papers investigating metdods and applications in NLP applied to language teaching.ELTAL est un atelier organisé au sein de la conférence JEP-TALN-RECITAL 2016 et regroupe des contributions qui étudient les méthodes et les applications en TAL dans le domaine de l'enseignement des langues

    Un environnement sémantique à base d'agents pour la formation à distance (E-Learning)

    Get PDF
    Aujourd’hui, les établissements d’enseignement, tels que les universités, de plus en plus offrent des contenus d’E -Learning. Certains de ces cours sont utilisés avec l'enseignement traditionnel (face à face ou présentiel), tandis que d'autres sont utilisés entièrement en ligne. La création de contenu d'apprentissage est une tâche principale dans tous les environnements d'apprentissage en ligne. Les contraintes de réduire au minimum le temps nécessaire pour développer un contenu d'apprentissage, d'augmenter sa qualité scientifique et de l'adapter à de nombreuses situations (contenu adaptatif), ont été un principal objectif et donc plusieurs approches et méthodes ont été proposées. En outre, les caractéristiques intellectuelles et sociales, ainsi que les styles d'apprentissage des individus, peuvent être très différents. Ces différences conduisent les personnes à adapter le contenu d'apprentissage en tenant compte des profils des apprenants et de leurs objectifs et caractéristiques. Cette recherche ouvre des portes pour les systèmes d'apprentissage avancées, qui fournissent aux apprenants immédiatement, des contenus d’apprentissage adaptés selon plusieurs critères de chaque apprenant. Alors que, il ne peut pas être pratique si nous n'avons pas plus d'informations sur l'apprenant et le contenu d'apprentissage (objectifs d'apprentissage, les prérequis, préférences, niveaux ...etc). Par conséquent, nous développons un système collaboratif, où plusieurs auteurs travaillent en collaboration, pour créer et annoter le contenu éducatif en utilisant le système multi-agents. La contribution de notre système est l'hybridation des techniques d'adaptation avec celles de la collaboration et du Web sémantique (ontologie, annotation). Nous représentons les profils des apprenants et le contenu d'apprentissage en utilisant des ontologies et des annotations pour répondre à la diversité et aux besoins individuelles des apprenants. Nous utilisons le paradigme agent, dans notre système, pour bénéficier des points forts de ce paradigme tels que la modularité, autonomie, flexibilité... etc
    • …
    corecore