176 research outputs found

    Instrumenter la lecture savante de documents multimédia temporels

    Get PDF
    L’évolution des technologies de numérisation et de diffusion documentaires confronte le lettré à des contenus et des méthodes de travail qui excèdent le cadre théorique et technique hérité de la tradition de la lettre et de l’imprimé. Prenant acte du caractère matériel et spatial de l’activité critique, où la manipulation des connaissances est conjointe à la manipulation des objets qui les incarnent, cet article propose une réflexion sur la nécessité de prolonger l’action de l’ingénierie documentaire dans le champ des interfaces homme-machine. C’est en effet par l’espace – autant celui de son environnement que celui de l’écriture – que le lecteur se rend maître de la temporalité de ses documents et de son projet interprétatif même. Notre enjeu est alors de comprendre les fondements de l’activité critique pour esquisser des directions structurantes pour son instrumentation informatique. Suite à l’exposition de ces aspects théoriques, nous présenterons quelques outils et instruments articulés dans un environnement de lecture savante multimédia, actuellement en cours de développement et de test

    RÉDACTION DE SPÉCIFICATIONS FORMELLES : ÉLABORATION À PARTIR DES SPÉCIFICATIONS ÉCRITES EN LANGAGE NATUREL

    No full text
    National audienceL'activité de spécification devient considérable ; une multitude de pages sont écrites tous les jours et la plupart du temps en langage naturel. Pour le CNET (Centre National d'Etudes des Télécommunications), qui réalise des études de services et d'équipements de France Telecom, et qui possède la maîtrise des étapes de spécification et de validation, a nécessité de réduire les temps de développement des services est une priorité. Une condition pour atteindre cet objectif consiste à formaliser le maximum de spécifications produites. Dans ce contexte, nous essayerons de montrer, la possibilité d'une certaine automatisation du passage de l'informel au formel, grâce à des méthodes et outils fiables, susceptibles d'assister un expert humain en spécifications. Nous proposons pour cela un processus de formalisation qui s'appuie sur une représentatin intermédiaire des spécifications avec le formalisme des graphes conceptuels, avant de dériver une description formelle en Z de la spécification initiale

    Modélisation du domaine par une méthode fondée sur l'analyse de corpus (2000)

    Get PDF
    12 pagesNational audienceLes nombreux travaux actuels sur les ontologies et modèles de domaines, justifiés par la perspective de leur réutilisabilité, proposent très peu de solutions aux problèmes pratiques de recueil et de structuration de ces connaissances. Cet article propose une méthode de construction de modèles de domaine ou d'ontologies, dont l'originalité est de se fonder sur l'analyse de corpus en utilisant ses principes linguistiques et ses logiciels de traitement automatique de la langue. Cette démarche se veut un complément efficace et précis aux méthodes classiques de modélisation du domaine à partir d'expertises individuelles

    Les propriétés grammaticales du genre de l'offre d'emploi aux fondements d'une méthode de classement automatique.

    Get PDF
    Nous présentons un projet de fouille de textes qui vise à développer une méthode de classement automatique d'offres d'emploi et d'identification des impératifs de compétences ; la méthode s'appuie sur l'étude des termes au sein de constructions grammaticales prototypiques (Bourrigault et Jacquemin, 2000 ; Tutin, 2007) permettant de saisir la sémantique lexicale et ce d'autant mieux au sein de l'horizon interprétatif défini par un genre spécifique (Condamines, 2006). Notre corpus se compose de 13375 offres d'emploi couvrant l'ensemble des métiers et secteurs, et annotées automatiquement en dépendances suivant une technique décrite dans (De La Clergerie et al., 2009 ; Erk & Padó, 2008 ; Padó & Lapata, 2007). Les patrons relevés, qui associent un jargon des ressources humaines et un lexique spécifique au métier concerné, permettent de distinguer les " compétences " d'autres classes de locutions emblématiques (par ex. l'intitulé du poste etc.) (Loth, 2010), ainsi que de classer les compétences (savoir-faire, personnalité, formation etc.). L'étude questionne ainsi la caractérisation multi-dimensionnelle des genres (Biber, 1988, 1993 ; Malrieu & Rastier, 2001 ; Rastier, 2001) et les liens entre syntaxe et sémantique (paradigmes constructionnels typiques et sémantique résultante)

    Contribution Ă  la maintenance des ontologies Ă  partir d'analyses textuelles : extraction de termes et de relations entre termes

    Get PDF
    Les ontologies sont des nouvelles formes de contrôle intelligent de l'information. Elles présentent un savoir préalable requis pour un traitement systématique de l'information à des fins de navigation, de rappel, de précision, etc. Toutefois, les ontologies sont confrontées de façon continue à un problème d'évolution. Étant donné la complexité des changements à apporter, un processus de maintenance, du moins semi-automatique, s'impose de plus en plus pour faciliter cette tâche et assurer sa fiabilité.\ud L'approche proposée trouve son fondement dans un modèle cognitif décrivant un processus d'extraction de connaissances à partir de textes et de thésaurus. Nous mettons ainsi, les textes au centre du processus d'ingénierie des connaissances et présentons une approche se démarquant des techniques formelles classiques en représentation de connaissances par son indépendance de la langue. Les traitements textuels sont fondés principalement sur un processus de classification supporté par un réseau de neurones (ART 1) et sur l'Indexation Sémantique Latente appliquée sur des classes de termes. Partant de l'hypothèse que l'extraction -de connaissances à partir de textes ne peut se contenter d'un traitement statistique (ni même linguistique) de données textuelles pour accaparer toute leur richesse sémantique, un processus d'extraction de connaissances à partir d'un thésaurus a été conçu afin d'intégrer, le mieux possible, les connaissances du domaine au sein de l'ontologie. Ce processus est fondé principalement sur un calcul d'associations sémantiques entre des Vecteurs Conceptuels. Le modèle proposé représente une chaîne de traitement (ONTOLOGICO) au sein de la plateforme\ud SATIM. Ce modèle vise à assister les experts de domaine dans leur tâche de conceptualisation et de maintenance des ontologies en se basant sur un processus itératif supporté par un ensemble de modules, en particulier, un extracteur de termes, un lemmatiseur, un segmenteur, un classifieur, un module de raffinement sémantique basé sur l'Indexation Sémantique Latente et un identificateur de termes reliés basé sur le calcul de similarité sémantique entre les couples de vecteurs conceptuels. La découverte de relations entre termes pour les besoins d'une conceptualisation de domaine s'avère être le résultat d'une complémentarité de traitements appliqués tant sur des textes de domaine que sur un thésaurus. D'une part, les analyses textuelles fondées principalement sur l'application de l'Indexation Sémantique Latente sur des classes de termes génèrent des relations sémantiques précises. D'autre part, l'extraction de relations sémantiques à partir d'un thésaurus, en se basant sur une représentation par des Vecteurs conceptuels, constitue un choix théorique judicieux et performant. Ce processus joue en effet, un rôle important dans la complétude des relations.\ud Ce projet de recherche se place au coeur des échanges entre terminologie et acquisition de connaissances. Il amène une réflexion sur les divers paliers à envisager dans une telle démarche de modélisation de connaissances textuelles pour des objectifs de maintenance d'une ontologie de domaine. La méthodologie proposée constitue une aide précieuse dans le domaine de la maintenance des ontologies. Elle assiste les terminologues chargés de naviguer à travers de vastes données textuelles pour extraire et normaliser la terminologie et facilite la tâche des ingénieurs en connaissances, chargés de modéliser des domaines. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Maintenance d'ontologie, Traitement Automatique du Langage Naturel (TALN), Indexation Sémantique Latente, Vecteurs Conceptuels, Classification automatique, Réseaux de Neurones

    Analyse automatique de textes comme point de départ d'un processus d'annotation

    Get PDF
    http://www.infotheque.info/article.php?article=220L'analyse automatique de textes a élargi la perspective de travail sur les contenus en ouvrant les études sur les productions langagières : l'annotation est un cas d'étude. Cette dernière est définie comme une information textuelle, graphique ou sonore, attachée à un document. Notre contribution se distingue par une différenciation de la représentation de l'annotation comme valeur ajoutée à un contenu, le contenu lui-même du document et les informations obtenues par un système de recherche d'information. C'est une nouvelle approche dans la conception d'un système d'information dédié à l'intelligence économique. On se donne comme objectif de présenter des modélisations concurrentes afin de faciliter l'appariement entre requêtes d'interrogation et sources documentaires dans un processus de recherche d'information en tenant compte de la pertinence des résultats. La validation de la pertinence des résultats et leur fiabilité sont pondérés aux besoins et aux centres d'intérêts des utilisateurs finaux : les décideurs

    Etude d'un cheminement de conception : structure hypertextuelle des connaissances pour les traces d'un projet architectural

    Get PDF
    National audienceAs part of the project MOPIA (Modeling of a tool-Partner for Architect) we focus on knowledge manipulated by an architect. The elements (drawings, photos, montages, models ...) remaining in the design of an architectural object by an architect are the only tangible formalization of knowledge reflecting the project as a process. To find out if these traces are reusable, what may be their interests and how they have been exploited, we must first study and model the design process, find the processes that make up the knowledge and the tools involved and try to understand their joints. We present our approach and explain how we rediscover the meaning of these traces through a hypertext structuring of project knowledge.Dans le cadre du projet MOPIA (Modélisation d'un Outil-Partenaire Informatique pour Architecte) nous nous intéressons aux connaissances manipulées par un architecte. Les éléments (dessins, photos, montages, maquettes…) qui subsistent de la conception d'un objet architectural par un architecte sont les seules formalisations tangibles de connaissances témoignant du projet en tant que processus. Afin de découvrir si ces traces sont réutilisables, quels peuvent être leurs intérêts et comment elles ont été exploitées, il nous faut d'abord expertiser et modéliser le cheminement de conception, retrouver les processus qui le composent, les connaissances et les outils mis en jeu et essayer de comprendre leurs articulations. Nous présentons notre approche et expliquons comment nous pensons retrouver le sens de ces traces au travers d'une structuration hypertextuelle des connaissances de projet

    TOTh 2007 : Terminologie et Ontologie : Théories et Applications. Annecy 1er Juin 2007

    Get PDF
    National audienceProceedings of the TOTh 2007 Conference: Terminology and Ontology: Theories and Applications. Annecy, France 1st June 200

    Ingénierie Documentaire au cœur des procédés de Management des Connaissances: Cas de la Caisse Marocaine des Retraites (L\u27)

    Get PDF
    Mémoire de Cycle Supérieur de l\u27Ecole des Sciences de l\u27Information (Rabat, Maroc), présenté en vue de l\u27obtention du diplôme d\u27Informatiste Spécialisé. Option: Concepteur de Systèmes d\u27Information Informatisé
    • …
    corecore