15 research outputs found

    Création, partage et transfert d'ensembles de données terminologiques basés sur SKOS

    Get PDF
    Depuis quelques années, la recherche sur la normalisation des ensembles de données terminologiques a été une des plus grandes préoccupations d'un groupe de travail du World Wide Web Consortium. Ce travail de recherche a permis de développer un nouveau standard SKOS qui a été ensuite émis en 2009 en tant que recommandation du W3C. Le travail de recherche que nous entreprenons dans ce mémoire concerne ce standard. Notre étude consiste à réaliser à partir de cette recommandation un modèle conceptuel fiable et cohérent reprenant les principaux éléments de SKOS et de son extension. Elle consiste aussi à prototyper un outil reposant sur ce modèle qui permettrait de gérer, de manipuler et de partager des ensembles de données terminologiques basés sur SKOS. Pour ce faire, une méthodologie de recherche bien précise a été adoptée et diverses recherches concernant le standard SKOS et le type d'ensemble de données terminologiques ont été réalisées. A partir de ces recherches, nous avons proposé un modèle conceptuel de SKOS et nous avons conçu et prototypé l'outil le supportant, qui a été par la suite testé à travers des cas d'utilisation réels. Ces tests ont permis d'évaluer l'outil et de démontrer sa capacité à manipuler des données normalisées en SKOS en toute simplicité. \ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Gestion de connaissances, SKOS, RDF, gestion des KOS, ensembles de données terminologiques basés sur SKOS, exportation SKOS, glossaires, thésaurus

    Ontologies, web sémantique et elearning : vers la composition automatique des objets d'apprentissage fondée sur les ontologies et les théories pédagogiques

    Get PDF
    Un des grands défis de l'apprentissage en ligne est la difficulté de composition des scénarios de formation à partir des objets d'apprentissages sémantiquement référencés pour répondre aux besoins spécifiques de formation. Un tel travail demande l'acquisition des connaissances du domaine qui repose généralement sur des experts humains du domaine et sur un processus d'explicitation de leurs connaissances. Il en est de même pour les principes devant guider la composition des scénarios afin de garantir leur qualité (valeurs pédagogiques). Répondre rapidement à ces besoins d'apprentissage par la proposition d'un contenu approprié ainsi qu'un cheminement d'apprentissage efficace et pédagogiquement valide est une nécessité, tant dans la formation classique en ligne que dans la formation en milieu industriel. L'offre d'une solution permettant d'atteindre un tel objectif contribuerait à une économie de coûts liés à la formation. Ce mémoire rend compte d'un travail visant à proposer une solution novatrice pour générer un contenu sur mesure (selon un besoin précis) et ainsi qu'un parcours pédagogiquement valide de celui-ci. La méthode s'appuie essentiellement sur une ontologie du domaine pour sélectionner les éléments de contenus appropriés (ou objets d'apprentissage) et sur un ensemble de principes pédagogiques explicites pour les structurer. Après un état de l'art conséquent qui met en perspectives l'ensemble des domaines en jeu (elearning, web sémantique et ingénierie ontologique), les standards disponibles dans le domaine du elearning pour la gestion des contenus d'apprentissage, et les problèmes de composition automatique (fondée ou non sur les ontologies) des objets d'apprentissage, une architecture générale de l'approche proposée est présentée, illustrant clairement les éléments qui soutiennent le processus de composition. Ce dernier comporte essentiellement trois (3) étapes : la sélection des ressources pertinentes, leur organisation (par la prise en compte des contraintes de référencement sémantique réalisé à partir de l'ontologie du domaine) et la scénarisation pédagogique qui prend en compte les principes de la théorie pédagogique sélectionnée. Un modèle définissant les opérateurs essentiels est proposé ainsi que des algorithmes qui implémentent les différents services. Un outil a été réalisé et testé avec des contenus d'un cours de programmation en Java.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : elearning, web sémantique, ontologies, objets d'apprentissage, théories pédagogiques, composition automatique des objets d'apprentissage

    Propositions de méthodologies pour la valorisation de la médecine traditionnelle fondées sur une ontologie

    Get PDF
    The work presented in this thesis focuses on the problematic of the valorization of traditional medicine. Traditional medicine is a very rich biological andcultural diversity. His practise is widespread and occurs in various forms. The valorization of this medicine is now a very important issue; it will capitalize this knowledge to popularize, and thus improve its performance in terms of diagnosis, treatment and cost. World Health Organization (WHO)proposes its integration into the national health system. But the practice and exercise of this medicine face many problems which make its implementation difficult. Among these problems, we can list the informal nature of its practice, its content is not formalized, its access mode is not determined, etc. We propose in this thesis, practices more efficient based on the new technology of information and communications; they based specifically on semantic resource such as the ontology which is the formal structure of an acquaintance. The methods proposed in this thesis allow to formalize the contents of this medicine, to facilitate its exercise and ultimately to succeed its revalorization.Le travail présenté dans cette thèse porte sur la problématique de la valorisation de la médecine traditionnelle. La médecine traditionnelle est d’une diversité biologique et culturelle très riche. Sa pratique est très répandue et se fait sous des formes variées . La valorisation de cette médecine constitue aujourd’hui un enjeu très important ; elle permettra de capitaliser ce savoir, de le vulgariser, et donc d’améliorer ses prestations en termes de diagnostic, de traitement et de coût. L’Organisation Mondiale de la Santé (OMS) propose, du reste, de l’intégrer dans le système national de santé. Mais la pratique et l’exercice de cette médecine rencontrent de nombreux problèmes qui rendent son application difficile. Parmi ces problèmes, nous pouvons relever le caractère informel de sa pratique, son contenu non formalisé, son mode d’accès non déterminé, etc. Nous proposons, dans cette thèse, des techniques de pratiques plus efficaces puisque basées sur les nouvelles technologies de l’information et de la communication ; celles-ci reposent plus spécifiquement sur la ressource sémantique telle que l’ontologie qui est la structuration formelle d’une connaissance. Les méthodes proposées dans cette thèse permettent de formaliser le contenu de cette médecine, pour en faciliter l’exercice et en définitive, pour aboutir à sa revalorisation

    Intégration du web sémantique dans un système d'aide à la décision pour le génie logiciel

    Get PDF
    Avoir à sa disposition des données et des connaissances et savoir à quoi elles servent c'est bien, savoir s'en servir c'est encore mieux. La qualité est un critère recherché dans tous les domaines. Dans des domaines qui font allusion aux objets matériels, il est facile de définir, d'observer et de savoir comment obtenir un produit fini de bonne qualité. Dans le domaine du génie logiciel, il est bien plus difficile de définir et d'observer la qualité d'un produit. On fait appel aux métriques, aux normes de qualité, aux modèles de qualité, etc., pour pouvoir déterminer, évaluer et améliorer la qualité d'un logiciel. Les résultats des études empiriques et les connaissances des experts à ce sujet ne sont malheureusement pas partagés avec tous les acteurs du domaine, ce qui entraine des interprétations différentes, la répétition des études ou l'ignorance de certains faits importants pour produire un logiciel de qualité. Dans le souci de permettre et faciliter le partage des connaissances et des données sur la qualité logicielle, nous avons exploité ce que le web sémantique offre (RDF, RDFS, OWL-DL). Nous avons aussi tiré avantage du web sémantique pour encourager la communauté du génie logiciel à unir leur savoir afin d'avoir la même compréhension et interprétation des données et connaissances sur la qualité logicielle. Nous avons réalisé une ontologie qui regroupe ces connaissances et données (modèles de qualité, attributs de qualité, métriques, etc.) indépendamment de leurs formats de sauvegarde. Nous avons mis cette ontologie à la disposition de tous et tout acteur avec le droit d'écriture peut apporter sa contribution à cet effort de centralisation, d'uniformisation et partage des connaissances. En faisant partie intégrante d'un système d'aide à la décision, cette ontologie est destinée à contribuer, dans les phases de conception, d'implémentation et de maintenance.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : modèles de qualité, métriques, web sémantique, ontologie

    Modélisation des connaissances normatives en vue l'évaluation de la recyclabilité d'un produit en conception : des normes aux contraintes

    Get PDF
    Un des principes de l'ingénierie concourante consiste à prendre en compte des contraintes liées à des étapes aval du cycle de vie d'un produit. Une meilleure prise en compte de ces exigences peut être obtenue par la mise à disposition d'outils d'aide à la décision permettant de vérifier rapidement la satisfaction des contraintes sur l'état actuel de description du produit. L'intégration des contraintes environnementales lors de la conception d'un produit est un excellent exemple de cette problématique, car représentative du problème général de la modélisation des connaissances, puis de leur interprétation au sein d'un système informatisé. En effet, les critères que le produit doit satisfaire sont contenus dans des normes et standards rédigés en langage naturel ; ces derniers peuvent être parfois ambigus, donc difficiles à interpréter, aussi bien par un humain que par un logiciel. Dans cette thèse, notre travail vise à proposer puis valider une démarche de traduction des connaissances normatives sous une forme exploitable pour l'évaluation de la recyclabilité d'un produit lors de sa conception. Nous proposons tout d'abord de définir un modèle « étendu » de produit à partir de l'analyse d'un échantillon représentatif d'éco-labels ; ces derniers étant considérés comme corpus de connaissances contenant des règles permettant d'évaluer la recyclabilité. Un langage de modélisation à base d'ontologies est pour cela utilisé afin de faciliter le passage du langage naturel à un modèle semi-formel. Il s'agit ensuite de propager les contraintes de recyclabilité extraites du corpus considéré dans la nomenclature du produit ; celle-ci étant choisie comme cadre de définition des paramètres de la recyclabilité. La démarche proposée est alors validée à partir d'un algorithme basé sur des techniques de CSP, tandis qu'une implémentation à l'aide du langage objet CLAIRE est décrite

    Dans la forêt touffue des bibliothèques numériques patrimoniales françaises : quels choix, quelles statégies, quelles perspectives ?

    Get PDF
    Mémoire de fin d\u27étude du diplôme de conservateur, promotion 23, présentant un panorama des bibliothèques numériques patrimoniales en France et étudiant les différents positionnements stratégiques et les choix de développement adoptés par les institutions responsables de leur existence

    L'AIS : une donnée pour l'analyse des activités en mer

    Get PDF
    4 pages, session "Mer et littoral"International audienceCette contribution présente des éléments méthodologiques pour la description des activités humaines en mer dans une perspective d'aide à la gestion. Différentes procédures, combinant l'exploitation de bases de données spatio-temporelles issue de données AIS archivées à des analyses spatiales au sein d'un SIG, sont testées afin de caractériser le transport maritime en Mer d'Iroise (Bretagne, France) sur les plans spatiaux, temporels et quantitatifs au cours d'une année

    Modélisation informatique de structures dynamiques de segments textuels pour l'analyse de corpus

    No full text
    The objective of the thesis is to propose a data-processing model to represent, build and exploit textualstructures. The suggested model relies on a «type/token» form of text representation extended bysystems of lexical and contextual annotations. This model's establishment was carried out in the SATOsoftware -- of which the functionalities and the internal organization are presented. Reference to anumber of works give an account of the development and use of the software in various contexts.The formal assumption of the textual and discursive structures find an ally in the beaconing XMLlanguage and the proposals of the Text Encoding Initiative (TEI). Formally, the structures built on thetextual segments correspond to graphs. In a development driven textual analysis context, these graphsare multiple and partially deployed. Their resolution, within the fastening of the nodes to textualsegments or that of other graphs, is a dynamic process which can be sustained by various dataprocessingmechanisms. Examples drawn from textual linguistics are used to illustrate the principles ofstructural annotation. Prospective considerations for the data-processing establishment of amanagement system of the structural annotation are also exposed.L'objectif de la thèse est de proposer un modèle informatique pour représenter, construire et exploiterdes structures textuelles. Le modèle proposé s'appuie sur une représentation du texte sous la forme d'unplan lexique/occurrences augmenté de systèmes d'annotations lexicales et contextuelles, modèle dontune implantation a été réalisée dans le logiciel SATO dont on présente les fonctionnalités etl'organisation interne. La présentation d'un certain nombre de travaux rendent compte dudéveloppement et de l'utilisation du logiciel dans divers contextes.La prise en charge formelle des structures textuelles et discursives trouve un allié dans le langage debalisage XML et dans les propositions de la Text Encoding Initiative (TEI). Formellement, lesstructures construites sur les segments textuels correspondent à des graphes. Dans le contexte d'uneanalyse textuelle en élaboration, ces graphes sont multiples et partiellement déployés. La résolution deces graphes, au sens du rattachement des noeuds à des segments textuels ou à des noeuds d'autresgraphes, est un processus dynamique qui peut être soutenu par divers mécanismes informatiques. Desexemples tirés de la linguistique textuelle servent à illustrer les principes de l'annotation structurelle.Des considérations prospectives sur une implantation informatique d'un système de gestion del'annotation structurelle sont aussi exposées

    Apprendre à gérer des collections patrimoniales en bibliothèque

    Get PDF
    Vous venez d'être nommé-e responsable de la collection patrimoniale d'une bibliothèque mais vous n'êtes pas spécialiste ou vos connaissances sont lointaines. D'où viennent ces vieux livres qui dorment dans la réserve ? Qu'en faire ? A-t-on le droit de s'en débarrasser s'ils paraissent ne servir à personne ? Y en a-t-il qui sont rares et qu'il faudrait mettre en valeur ? Quelques-uns sont catalogués mais c'est loin d'être le cas de tous, comment faire ? Et puis il y a des gravures dans des portefeuilles, des photographies anciennes ici et là. Comment savoir si elles ont quelque intérêt ? Dans un coin des magasins, des moisissures sont brusquement apparues et semblent contaminer peu à peu les ouvrages. Comment s'en débarrasser ? Qui prévenir ? Si vous vous posez parfois ces délicates questions, ce manuel est pour vous. (Dominique Coq, responsable scientifique du volume) Éclairé par des retours d'expériences de spécialistes, ce manuel réunit un ensemble raisonné d'informations de base, qui présente la marche à suivre pour appréhender, traiter, signaler et valoriser ces fonds patrimoniaux ; il permet d'en comprendre l'environnement juridique, administratif et documentaire. Un document indispensable pour les professionnels peu formés dans le domaine, confrontés pour la première fois à une collection patrimoniale, ou qui s'y destinent, et désireux d'acquérir les rudiments nécessaires pour la gérer

    Apprendre

    Get PDF
    Vous venez d'être nommé-e responsable de la collection patrimoniale d'une bibliothèque mais vous n'êtes pas spécialiste ou vos connaissances sont lointaines. D'où viennent ces vieux livres qui dorment dans la réserve ? Qu'en faire ? A-t-on le droit de s'en débarrasser s'ils paraissent ne servir à personne ? Y en a-t-il qui sont rares et qu'il faudrait mettre en valeur ? Quelques-uns sont catalogués mais c'est loin d'être le cas de tous, comment faire ? Et puis il y a des gravures dans des portefeuilles, des photographies anciennes ici et là. Comment savoir si elles ont quelque intérêt ? Dans un coin des magasins, des moisissures sont brusquement apparues et semblent contaminer peu à peu les ouvrages. Comment s'en débarrasser ? Qui prévenir ? Si vous vous posez parfois ces délicates questions, ce manuel est pour vous. (Dominique Coq, responsable scientifique du volume) Éclairé par des retours d'expériences de spécialistes, ce manuel réunit un ensemble raisonné d'informations de base, qui présente la marche à suivre pour appréhender, traiter, signaler et valoriser ces fonds patrimoniaux ; il permet d'en comprendre l'environnement juridique, administratif et documentaire. Un document indispensable pour les professionnels peu formés dans le domaine, confrontés pour la première fois à une collection patrimoniale, ou qui s'y destinent, et désireux d'acquérir les rudiments nécessaires pour la gérer
    corecore